回复:Flink命令提交任务时是否支持配置文件与任务jar包分离

2019-08-10 文章 huanqinghappy
配置频繁更新问题不只是flume程序需要解决其他的应用也需要解决的,可以做成基础公共服务 比如: Apollo Apollo(阿波罗)是携程框架部门研发的分布式配置中心,能够集中化管理应用不同环境、不同集群的配置,配置修改后能够实时推送到应用端,并且具备规范的权限、流程治理等特性,适用于微服务配置管理场景。https://github.com/ctripcorp/apollo TianlangStudio Some of the biggest lies: I will start tomorrow/Others are better than me/I am not good

回复:Flink命令提交任务时是否支持配置文件与任务jar包分离

2019-08-10 文章 huanqinghappy
你好: 是不是可以直接使用配置中心 例如把配置信息写到zookeeper上 这样还能做到当配置信息更改后不应用也可以做相应改变 -- 发件人:jinxiaolong_al...@163.com 发送时间:2019年8月10日(星期六) 00:32 收件人:user-zh 主 题:Flink命令提交任务时是否支持配置文件与任务jar包分离 各位社区大佬: 请问使用Flink命令提交任务时是否支持配置文件与任务jar包分离。

flink源码编译可以不编译scala代码吗

2019-08-10 文章 苟刚
Hi,All: 我再尝试编译flink 1.7的源码时,遇到如下错误,本人对scala不是很了解,不知道是不是版本问题引起,另外可以去掉sacla模块编译吗: 本机scala版本:2.13.0 JDK 版本: 1.8.0_91 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.1:compile (default-compile) on project flink-scala_2.11: Compilation failure: Compilation

Re: flink1.10版本连接hive报错

2019-08-10 文章 zhisheng
hi 苏欣: 建议先检查一下最后打的 jar 包里面是否包含了 com.hadoop.compression.lzo.LzoCodec 和 com.hadoop.compression.lzo.LzoCodec 苏 欣 于2019年8月9日周五 下午5:41写道: > 使用flink版本为1.10-snapshot,连接hive版本为1.1.0-cdh5.4.7,大数据集群有kerberos认证。 > > 我是用1.2.1的方式连接hive的。hiveCatalog可以取到表结构,但在启动作业的时候报错,Standalone模式和yarn模式都报同样的错。 >