Flink Standalone HA问题

2020-11-20 文章 Fei Han
@all! Flink版本是1.10.2。集群模式是Flink Standalone HA。 问题: 如果在hadoop HA 的情况下,两个namenode都宕机了。重启机器后,启动hadoop。 Flink Standalone HA 观察后,选举5分钟后才成功?请问是不是正常的?

Re:Re: flink on yarn 任务FAILED后 没有错误日志 输出到yarn log

2020-11-20 文章 air23
但是 在yarn上跑的spark 任务 都是可以看到错误日志的, flink这边配置的是log4j的日志文件,本地运行 控制台是可以看到错误原因 和日志 在 2020-11-20 17:53:03,"caozhen" 写道: > >1、jobmanager的日志有没有错误呢? >2、或者通过yarn history查下日志 yarn logs -applicationId xxx >3、如果是flink client 提交作业可以看下客户端日志 > > > >air23 wrote >> 你好 >> flink on yarn 任务FAILED后 没有错误日志 输出到yarn log

Re:Re: flink on yarn 任务FAILED后 没有错误日志 输出到yarn log

2020-11-20 文章 air23
yarn logs -applicationId xxx 和 yarn 历史log 都查看不到FAILED 错误日志。 在 2020-11-20 17:53:03,"caozhen" 写道: > >1、jobmanager的日志有没有错误呢? >2、或者通过yarn history查下日志 yarn logs -applicationId xxx >3、如果是flink client 提交作业可以看下客户端日志 > > > >air23 wrote >> 你好 >> flink on yarn 任务FAILED后 没有错误日志 输出到yarn log >> 这样定位不到 具体是什么问

回复:flink-1.11.1 Table API /SQL 无法写入hive orc表

2020-11-20 文章 迎风浪子
各位好,我写orc格式文件,提示找不到文件,但通过dfs -ls文件确是有的,我该怎么解决呢?谢谢! ---原始邮件--- 发件人: "amen...@163.com"https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/hive/#program-maven best, amenhub   发件人: Jian Wang 发送时间: 2020-08-31 21:55 收件人: user-zh 主题: flink-1.11.1 Table API /SQL 无法写入hive orc表 Hi all

Re:Re: FlinkSQL 支持DDL时 补全字段并进行默认值设置吗?

2020-11-20 文章 hailongwang
是指在 Create Table 时候可以设置每一列的 default value,当这个列的值不存在时候,直接使用 default value 值? 就像传统的 DB 一样。 Best, Hailong 在 2020-11-20 16:21:28,"Jark Wu" 写道: >你说的补全字段是指什么?有没有具体的例子?自动推导 schema 么? > >Best, >Jark > >On Fri, 20 Nov 2020 at 17:09, 孟小鹏 wrote: > >> 目前遇到一个痛点  FlinkSQL可以在DDL时 补全字段并设置默认值吗?这样少了去处理ETL的步骤 >>

Re: flink on yarn 任务FAILED后 没有错误日志 输出到yarn log

2020-11-20 文章 caozhen
1、jobmanager的日志有没有错误呢? 2、或者通过yarn history查下日志 yarn logs -applicationId xxx 3、如果是flink client 提交作业可以看下客户端日志 air23 wrote > 你好 > flink on yarn 任务FAILED后 没有错误日志 输出到yarn log > 这样定位不到 具体是什么问题导致任务 失败了,请问怎么配置把log输出到yarn的log里面 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: 关于 Flink on K8S Deploy Job Cluster 部署问题

2020-11-20 文章 caozhen
如果要使用官方的 flink on k8s的 per-job模式: [1] per-job模式下,每次启动新的job都需要通过taskmanager-job-deployment.yaml 和 jobmanager-job.yaml创建对应的 TM、JM。 终止任务,则需要删掉对应的yaml文件,也就是终止TM、JM: kubectl delete -f taskmanager-job-deployment.yaml kubectl delete -f jobmanager-job.yaml [1] https://ci.apache.org/projects/f

Re: FlinkSQL 支持DDL时 补全字段并进行默认值设置吗?

2020-11-20 文章 Jark Wu
你说的补全字段是指什么?有没有具体的例子?自动推导 schema 么? Best, Jark On Fri, 20 Nov 2020 at 17:09, 孟小鹏 wrote: > 目前遇到一个痛点  FlinkSQL可以在DDL时 补全字段并设置默认值吗?这样少了去处理ETL的步骤 > > 这快有考虑吗?

FlinkSQL ????DDL?? ???????????????????????????

2020-11-20 文章 ??????
  FlinkSQL??DDL?? ?ETL?? ?

Flink实时两个stream进行union,结果只有其中一个流的数据发送到了下游

2020-11-20 文章 Yang Peng
Hi,请教一个问题 我们的一个Flink实时任务中对两个流A和B进行union操作,然后和C流进行connect操作,数据流程大概是这样的:D = A.union(B) C.connect(D).keyby(C.key,D.key).process().addsink(kafkaProducer); A流和B流的数据类型是一样的,但是并发不一样,A流的并发大,B流的并发小,在某一时刻A流出现一波流量尖刺,之后发现输出到kafka的的数据中没有A流的数据都是B流的 ;我们发现A流和B流都有数据正常消费也没有积压没有反压,cp执行正常,查看tm和jm也都没有日志异常,这个任务已经跑了很久了,第一