hi,各位好:
    hdfs目前是配置了高可用, namenode分别为 nn1(active),nn2(standby)
    flink-conf.yaml中的配置如下:
    state.checkpoints.dir: hdfs://nn1的ip:8020/flink/flink-checkpoints/
    然后发布一个job,等checkpoint生成后,把 nn1 namenode 杀掉。
    nn2会自动切换成active,nn1无法访问。
    job就会不停的restart。
   日志显示 failed on connection exception: java.net.ConnectException: Connection 
refused; 无法连接 nn1。
   请问checkpoint关于hdfs的高可用是如何配置的,state.checkpoints.dir 应该怎么写。
       



签名由 网易邮箱大师 定制

回复