我从flink yaml文件设置了如下配置项:
HADOOP_CONF_DIR:
execution.target: yarn-application
yarn.provided.lib.dirs:hdfs://...
pipeline.jars: hdfs://...
所以我不确定你们使用yarn-application如何进行的配置
--
Sent from: http://apache-flink.147419.n8.nabble.com/
Hi
从你的日志看作业启动失败的原因是:
Caused by: java.lang.IllegalArgumentException: Wrong FS:
hdfs://xx/flink120/, expected: file:///
看上去你设置的地址和 需要的 schema 不一样,你需要解决一下这个问题
Best,
Congxian
todd 于2021年3月15日周一 下午2:22写道:
> 通过脚本提交flink作业,提交命令:
> /bin/flink run-application -t yarn-application
> -Dyarn.p
通过脚本提交flink作业,提交命令:
/bin/flink run-application -t yarn-application
-Dyarn.provided.lib.dirs="hdfs://xx/flink120/" hdfs://xx/flink-example.jar
--sqlFilePath /xxx/kafka2print.sql
flink使用的Lib及user jar已经上传到Hdfs路径,但是抛出以下错误:
---
The program fin