这个地方是没有变化的,你可以看TaskManagerRunner的代码,一直是使用ip地址来向JM注册的
你需要确认coredns解析这个IP到底是否可以成功,另外我验证了一下,你说的detail subtasks taskmanagers xxx x 这行 显示的其实目前也是hostname,是解析ip之后得到的,例如我这边看到的是172-20-0-50,是因为我执行nslookup查询的结果是 kubectl run -i -t busybox --image=busybox --restart=Never / # nslookup 172.20.0.50 Server: 172.21.0.10 Address: 172.21.0.10:53 50.0.20.172.in-addr.arpa name = 172-20-0-50.flink-jobmanager.default.svc.cluster.local 你最好先确认下你这边K8s集群的变更以及coredns的问题吧 Best, Yang SmileSmile <a511955...@163.com> 于2020年7月22日周三 下午7:59写道: > Hi Yang Wang! > > 你提到了Flink里面用的是InetAddress#getHostFromNameService来跟进IP地址获取FQDN的。 > > 这个在1.10和1.11版本是否有发生变化?这段报错只在1.11才出现,1.10不存在。如果core dns有问题,应该两个版本都有有异常 > > Best! > > > a511955993 > 邮箱:a511955...@163.com > > <https://maas.mail.163.com/dashi-web-extend/html/proSignature.html?ftlId=1&name=a511955993&uid=a511955993%40163.com&iconUrl=https%3A%2F%2Fmail-online.nosdn.127.net%2Fqiyelogo%2FdefaultAvatar.png&items=%5B%22%E9%82%AE%E7%AE%B1%EF%BC%9Aa511955993%40163.com%22%5D> > > 签名由 网易邮箱大师 <https://mail.163.com/dashi/dlpro.html?from=mail88> 定制 > > 在2020年07月22日 18:18,Yang Wang <danrtsey...@gmail.com> 写道: > 抱歉回复晚了 > > 我这边也验证了一下,在你所说的地方确实是ip:port,但是提交任务都是正常的 > > 如果你的日志里面一直在刷No hostname could be resolved for the IP address,应该是集群的coredns > 有问题,由ip地址反查hostname查不到。你可以起一个busybox验证一下是不是这个ip就解析不了,有 > 可能是coredns有问题 > > > Flink里面用的是InetAddress#getHostFromNameService来跟进IP地址获取FQDN的 > > > Best, > Yang > > SmileSmile <a511955...@163.com> 于2020年7月10日周五 下午1:10写道: > > > hi Yang > > > > 在1.10版本,running的作业点击拓普图中随便一个operation,有detail subtasks taskmanagers xxx > x > > 这行,taskmanagers这栏里的host,显示的是 podname:端口 > > > > 在1.11变成ip:端口 > > > > 目前我这边遇到的情况是,构建了一个有120slot的集群,作业并行度是120。 提交到jm后jm就失联了,jm > timeout。观察jm日志,疯狂在刷 > > > > > > No hostname could be resolved for the IP address 10.35.160.5, using IP > > address as host name. Local input split assignment (such as for HDFS > files) > > may be impacted > > > > > > 目前观察到的改变主要是这块podname和ip的区别,其他不确定 > > > > > > | | > > a511955993 > > | > > | > > 邮箱:a511955...@163.com > > | > > > > 签名由 网易邮箱大师 定制 > > > > 在2020年07月10日 12:13,Yang Wang 写道: > > 我记得1.11里面对host这个地方应该是没有改动,taskmanager.network.bind-policy的 > > 默认值一会都是ip。所以你说的UI上是podname,这个是哪里的?正常TM列表akka地址 > > 都是ip地址的 > > > > > > Best, > > Yang > > > > SmileSmile <a511955...@163.com> 于2020年7月10日周五 上午10:42写道: > > > > > hi yang wang > > > > > > 1.11版本的on kubernetes在hostname上有做什么变化吗? > > > > > > 作业运行的时候 flink ui上 tm变成ip:端口 > > > ,在1.10版本,ui上是 podname:端口。 > > > > > > 作业启动的时候,jm日志一直在刷 > > > > > > No hostname could be resolved for the IP address 10.35.160.5, using IP > > > address as host name. Local input split assignment (such as for HDFS > > files) > > > may be impacted > > > > > > > > > > > > > > > | | > > > a511955993 > > > | > > > | > > > 邮箱:a511955...@163.com > > > | > > > > > > 签名由 网易邮箱大师 定制 > > > > > > 在2020年07月09日 20:02,Yang Wang 写道: > > > sed替换报错应该不是Pod启动失败的根本原因,因为目前的docker-entrypoint.sh做了修改 > > > 才会这样[1] > > > > > > 你这个报错看着是执行bash-java-utils.jar报的错,确认你用的是社区的yaml文件[2],我运行是没有问题的。 > > > 如果不是,需要你把你的yaml发出来 > > > > > > > > > [1]. > > > > > > https://github.com/apache/flink-docker/blob/dev-master/docker-entrypoint.sh > > > [2]. > > > > > > > > > https://ci.apache.org/projects/flink/flink-docs-master/ops/deployment/kubernetes.html > > > > > > > > > Best, > > > Yang > > > > > > SmileSmile <a511955...@163.com> 于2020年7月9日周四 下午1:40写道: > > > > > > > hi > > > > > > > > 按照新版本的部署文件[1],会部署失败.如果将部署文件改用1.10版本,只是修改镜像文件和log4j文件,可以成功构建[2]。 > > > > > > > > > > > > 目前看差别在于1.11启动jm和tm是通过args: > > > > > > > > > > ["jobmanager"]的方法,通过docker-entrypoint.sh[3]看到调用set_common_options方法的时候会sed > > > > 本地挂载的flink-configuration-configmap.yaml导致失败。 > > > > > > > > > > > > 1.10 版本是通过$FLINK_HOME/bin/jobmanager.sh启动。 > > > > > > > > command: ["/bin/bash", "-c", "$FLINK_HOME/bin/jobmanager.sh start;\ > > > > while :; > > > > do > > > > if [[ -f $(find log -name '*jobmanager*.log' -print > -quit) > > ]]; > > > > then tail -f -n +1 log/*jobmanager*.log; > > > > fi; > > > > done"] > > > > > > > > > > > > 如果遇到该问题的,沿用1.10版本的部署方式部署1.11镜像可以成功。 1.11 版本的部署方式如果有大佬可以走通的,求分享。 > > > > > > > > > > > > > > > > [1] > > > > > > > > > > https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/deployment/kubernetes.html#session-cluster-resource-definitions > > > > [2] > > > > > > > > > > https://ci.apache.org/projects/flink/flink-docs-release-1.10/ops/deployment/kubernetes.html#session-cluster-resource-definitions > > > > [3] > > > > > > > > > > https://github.com/apache/flink-docker/blob/master/1.11/scala_2.11-debian/docker-entrypoint.sh > > > > > > > > > > > > > > > > | | > > > > a511955993 > > > > | > > > > | > > > > 邮箱:a511955...@163.com > > > > | > > > > > > > > 签名由 网易邮箱大师 定制 > > > > > > > > 在2020年07月08日 16:38,SmileSmile 写道: > > > > hi yun tang! > > > > > > > > 没有对 /opt/flink/config 目录下的文件做写操作。 只是按照官网上的配置文件进行部署,镜像用的也是社区的镜像。 > > > > best! > > > > > > > > > > > > > > > > > > > > | | > > > > a511955993 > > > > | > > > > | > > > > 邮箱:a511955...@163.com > > > > | > > > > > > > > 签名由 网易邮箱大师 定制 > > > > > > > > 在2020年07月08日 16:29,Yun Tang 写道: > > > > Hi > > > > > > > > 你是不是对 /opt/flink/conf > > > > 目录下的文件进行了sed相关写操作?社区文档中使用的方法是将configmap挂载成本地的flink-conf.yaml > > > > 等文件,而这个挂载的目录其实是不可写的。 > > > > 直接修改configmap里面的内容,这样挂载时候就会自动更新了。 > > > > > > > > 祝好 > > > > 唐云 > > > > ________________________________ > > > > From: SmileSmile <a511955...@163.com> > > > > Sent: Wednesday, July 8, 2020 13:03 > > > > To: Flink user-zh mailing list <user-zh@flink.apache.org> > > > > Subject: flink 1.11 on kubernetes 构建失败 > > > > > > > > hi > > > > > > > > 按照文档[1]的方法部署session cluster on kubernetes,集群构建的时候出现了如下报错 > > > > > > > > > > > > Starting Task Manager > > > > sed: couldn't open temporary file /opt/flink/conf/sedVdyy6Q: > Read-only > > > > file system > > > > sed: couldn't open temporary file /opt/flink/conf/sedcj5VKQ: > Read-only > > > > file system > > > > /docker-entrypoint.sh: 72: /docker-entrypoint.sh: cannot create > > > > /opt/flink/conf/flink-conf.yaml: Permission denied > > > > sed: couldn't open temporary file /opt/flink/conf/sedB5eynR: > Read-only > > > > file system > > > > /docker-entrypoint.sh: 120: /docker-entrypoint.sh: cannot create > > > > /opt/flink/conf/flink-conf.yaml.tmp: Read-only file system > > > > [ERROR] The execution result is empty. > > > > [ERROR] Could not get JVM parameters and dynamic configurations > > properly. > > > > > > > > > > > > 是否有遇到同样的问题,支个招 > > > > > > > > > > > > > > > > [1] > > > > > > > > > > https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/deployment/kubernetes.html#session-cluster-resource-definitions > > > > > > > > > > > > | | > > > > a511955993 > > > > | > > > > | > > > > 邮箱:a511955...@163.com > > > > | > > > > > > > > 签名由 网易邮箱大师 定制 > > > > > > > > > > >