Hi,
版本:Flink-1.15.1
模式:单机
s1为kafka的source表,已定义,
g_name为s1表的字段,string类型
select `g_name` from s1;
这个运行正常,有数据输出
然后加上 IF 语句,则会报错:
Flink SQL> select if(`g_name` is null, 'no', `g_name`) from s1;
[ERROR] Could not execute SQL statement. Reason:
org.apache.flink.streaming.runtime.tasks.ExceptionI
Hi,
jstack 下 JM 的栈? 从目前这个现象上看,像是 JobMaster 初始化的时候卡住了
Best,
Lijie
ynz...@163.com 于2022年7月13日周三 09:56写道:
> 是的,192.168.10.227:35961是TM地址;
> 反复初始化是指,在flink web ui的overview界面,Running Job
> List中对应JOb的status一直是INITIALIZING;
> 没有TM日志,我暂时还没弄明白为什么退出,flink web ui的TM界面,全程是没有任何信息的;
> 以下是日志列表,我没找到啥有用信息
> d
是的,192.168.10.227:35961是TM地址;
反复初始化是指,在flink web ui的overview界面,Running Job List中对应JOb的status一直是INITIALIZING;
没有TM日志,我暂时还没弄明白为什么退出,flink web ui的TM界面,全程是没有任何信息的;
以下是日志列表,我没找到啥有用信息
directory.info : Total file length is 7201 bytes.
jobmanager.err : Total file length is 588 bytes.
jobmanager.log : Tot
单从这个日志看不到一直 Failover ,相关任务反复初始化是指哪个任务呢?
看到了一些 akka 的链接异常,有可能是对应的 TM 异常退出了,可以再确认下 192.168.10.227:35961 这个是不是
TaskManager 地址,以及为什么退出
Best,
Weihua
On Tue, Jul 12, 2022 at 9:37 AM ynz...@163.com wrote:
> 这是job managers所有日志:
> 2022-07-12 09:33:02,280 INFO
> org.apache.flink.configuration.GlobalConf
Hi,
不建议在 TM 内部多个 Task 间共享变量,每个 Task 单独使用自己的资源,在 RichFunction open 时初始化资源,close
时释放资源。否则容易导致资源泄露
Best,
Weihua
On Tue, Jul 12, 2022 at 2:31 PM RS wrote:
> Hi,
>
>
> 如果是访问ES的话,Flink里面自带ES的connector,你可以直接使用,或者参考源码,source和sink接口都有对应的方法
>
>
>
> 资源是否在一个线程里面,这个取决与你代码逻辑,如果在不同的线程或者进程的话,设计上,就不要用同一个EsCli
Hi,
这种情况应该是作业没有开启 CheckPoint,可以检查下作业逻辑
Best,
Weihua
On Tue, Jul 12, 2022 at 3:30 PM 陈卓宇 <2572805...@qq.com.invalid> wrote:
> flink1.14.5
>
> flink web ui Checkpoints显示为:No Data
The Apache Flink community is excited to announce the release of Flink ML
2.1.0!
This release focuses on improving Flink ML's infrastructure, such as Python
SDK, memory management, and benchmark framework, to facilitate the
development of performant, memory-safe, and easy-to-use algorithm
librari
公司有部分项目是基于 storm 开发的,目前想进行改造,计划用 flink。
初步看了下代码,发现 storm 中实现都是通过 multi-lang 方式各种调用 shell、python
实现。这些shell和python主要通过storm提供的一个 storm.py 基础包实现和 父进程
的通信(基于stdin和stdout貌似)。
想问问,这种如何改造呢?
首先是大方向上,(1)连同python、shell部分一起改造。(2)保留python、shell部分,基于flink实现一套类似机制。
(1)和(2)目前看起来都会很复杂。
有没有小伙伴做过类似事情呢?
如果你K8s集群内的机器配置的DNS Server也是coredns,那就可以正常解析clusterIP对应的service的
最初ClusterIP的设计也是让任务管理的Pod来使用,例如flink-kubernetes-operator[1]
[1]. https://github.com/apache/flink-kubernetes-operator
Best,
Yang
yidan zhao 于2022年7月12日周二 13:17写道:
> 我用 flink run -m 方式指定 clusterIp 是可以提交任务的。
> 那么使用 --target kubernet
flink1.14.5
flink web ui CheckpointsNo Data
10 matches
Mail list logo