感谢感谢感谢!!!
原来是这样,以为solt 缩写就是-s了,,,感谢这位朋友的解答,已经可以提交了~
> -- 原始邮件 --
> 发 件 人:"Yang Wang"
> 发送时间:2020-12-24 11:01:46
> 收 件 人:user-zh
> 抄 送:
> 主 题:Re: flink on yarn启动失败
>
> 你这个命令写的有点问题,flink run -m yarn-cluster -ynm traffic -s 2 -p 2
你这个命令写的有点问题,flink run -m yarn-cluster -ynm traffic -s 2 -p 2 -ytm 1024 -py
traffic.py
应该是-ys,而不是-s
-s是从savepoints恢复,所以报错里面会有找不到savepoints目录
Best,
Yang
magichuang 于2020年12月23日周三 下午8:29写道:
> 机器参数:三台 32C64G centos 7.8,cdh集群在这上面先部署
> flink版本:1.11.2,在三台集群上搭建的集群
>
> hadoop集群是用cdh搭建的
>
>
>
机器参数:三台 32C64G centos 7.8,cdh集群在这上面先部署
flink版本:1.11.2,在三台集群上搭建的集群
hadoop集群是用cdh搭建的
启动命令:flink run -m yarn-cluster -ynm traffic -s 2 -p 2 -ytm 1024 -py traffic.py
程序使用pyflink开发的,从kafka读取数据,然后用滚动窗口聚合每分钟的数据在写入kafka
这个程序在local模式下是正常运行的,但是用per-job模式提交总是失败
测试官方例子 flink run -m yarn-cluster