hi,各位好: hdfs目前是配置了高可用, namenode分别为 nn1(active),nn2(standby) flink-conf.yaml中的配置如下: state.checkpoints.dir: hdfs://nn1的ip:8020/flink/flink-checkpoints/ 然后发布一个job,等checkpoint生成后,把 nn1 namenode 杀掉。 nn2会自动切换成active,nn1无法访问。 job就会不停的restart。 日志显示 failed on connection exception: java.net.ConnectException: Connection refused; 无法连接 nn1。 请问checkpoint关于hdfs的高可用是如何配置的,state.checkpoints.dir 应该怎么写。
签名由 网易邮箱大师 定制