看不到Task里Operator之间传输的数据量
zhisheng 于2021年11月4日周四 下午4:56写道:
>
> webui 有 operator 级别的,仔细看看
>
> Ada Luna 于2021年10月26日周二 下午4:08写道:
>
> > Web-UI中的就是Flink原生正常的Metrics,都是Task级别
> >
> > xiazhl 于2021年10月26日周二 下午2:31写道:
> > >
> > > web-ui里面有metrics
&g
er`#createExternalConverter 决定的。
> > 根据你的描述,当前的序列化器不够通用导致了这个问题,可能需要改动下源码才能支持。
> >
> > Best,
> > Shengkai
> >
> > Ada Luna 于2021年11月12日周五 上午11:25写道:
> >
> >> Oracle中有VARCHAR 和 CLOB
> >> 如果我在Flink SQL JDBC Sink中配置STRING那么只能写VARCHAR 写CLOB会报错。
Oracle中有VARCHAR 和 CLOB
如果我在Flink SQL JDBC Sink中配置STRING那么只能写VARCHAR 写CLOB会报错。
我想扩展FlinkSQL DDL的类型有什么办法吗。是用RAW类型还是有其他更好办法。
Oracle中VARCHAR和CLOB是两种不同的String,我需要在Sink写出的时候根据DDL的类型,调用不同的转换方法
Ada Luna 于2021年11月12日周五 上午11:23写道:
>
> Oracle中有VARCHAR 和 CLOB
> 如果我在Flink SQL JDBC Sink中配置STRING那么只能写
Oracle中有VARCHAR 和 CLOB
如果我在Flink SQL JDBC Sink中配置STRING那么只能写VARCHAR 写CLOB会报错。
Web-UI中的就是Flink原生正常的Metrics,都是Task级别
xiazhl 于2021年10月26日周二 下午2:31写道:
>
> web-ui里面有metrics
>
>
>
>
> -- 原始邮件 --
> 发件人:
> "user-zh"
Flink只能看到Task级别的流入流出数据量,而没有Operator级别的。这个是出于性能考量吗?未来会加入一个开关,可以看到Operator级别的,方便debug吗?
举个例子
Kenyore Woo 于2021年10月14日周四 上午10:37写道:
>
> 你可以把使用反向条件把脏数据输出到另外一张表去。source会复用的。其实和side output效果是一致的
> On Oct 13, 2021 at 16:28:57, Ada Luna wrote:
>
> > 这个没有支持的打算是因为,目前我们假定Flink SQL处理的数据都是干净的经过清洗的是吧。
> >
> > Ada Luna 于2021年9月19日周日 下午7:43写道:
> >
> >
这个没有支持的打算是因为,目前我们假定Flink SQL处理的数据都是干净的经过清洗的是吧。
Ada Luna 于2021年9月19日周日 下午7:43写道:
>
> 主要是脏数据,Source、Sink或者其他算子产生的脏数据,向把这些数据侧向输出到外部数据库里存起来。
>
> Caizhi Weng 于2021年9月16日周四 下午1:52写道:
> >
> > Hi!
> >
> > 就我所知目前暂时没有支持 side output 的打算。可以描述一下需求和场景吗?
>
目前我遇到的问题是不同Job的日志无法再一个Session中区分。
看了京东写的文章。
https://www.infoq.cn/article/1nvlduu82ihmusxxqruq
未来社区在这方面有什么规划吗。
https://issues.apache.org/jira/browse/FLINK-17969
这个Ticket的PR也被关了。
Source: TableSourceScan(table=[[default_catalog, default_database,
ods_k]], fields=[id, name])
Sink: Sink(table=[default_catalog.default_database.ads_k], fields=[id, name])
Sink: Sink(table=[default_catalog.default_database.ads_k2], fields=[id, name]))
TableSourceScan 和 Sink相比多了个 中括号,并且采用 ',' 分割名
我这个是Flink SQL任务
陈卓宇 <2572805...@qq.com.invalid> 于2021年9月23日周四 下午3:57写道:
>
> 你不同job任务日志上做一个区别LOG_PREFIX private static final String LOG_PREFIX =
> "【WF事件组件下发缓存处理器】";
> log.info("|prefix={} ☀️☀️☀️☀️ 进行订阅事件缓存处理开始|message={}|componentEvent={}|",
> LOG_PREFIX, message, componentEvent);
>
>
>
> 陈卓宇
>
多个Job跑在一个Session中,如何区分不同job的日志呢?目前有什么好的办法吗?
主要是脏数据,Source、Sink或者其他算子产生的脏数据,向把这些数据侧向输出到外部数据库里存起来。
Caizhi Weng 于2021年9月16日周四 下午1:52写道:
>
> Hi!
>
> 就我所知目前暂时没有支持 side output 的打算。可以描述一下需求和场景吗?
>
> Ada Luna 于2021年9月15日周三 下午8:38写道:
>
> > Flink SQL 未来会支持side output,侧向输出一些脏数据吗?
> >
Flink SQL 未来会支持side output,侧向输出一些脏数据吗?
table.dynamic-table-options.enabled
这个参数Flink为什么默认是false,是怕用户误操作还是开启了有性能问题?
taskmanager.network.memory.buffers-per-channel
把这个参数从默认的2调整成5,反压的PoolUsage就和网上的文章一致了,这是为什么?
Ada Luna 于2021年8月16日周一 下午4:17写道:
>
> 在网上看文章一般反压源头的inputPoolUsage应该是高的,其他被反压算子的inputPoolUsage也应该是高的。但是我最近发现的反压inputPoolUsage全是空,是Flink的反压机制就是这样,还是说这个版本的Metrics有问题。
>
> Ada Luna 于2021年8月16
在网上看文章一般反压源头的inputPoolUsage应该是高的,其他被反压算子的inputPoolUsage也应该是高的。但是我最近发现的反压inputPoolUsage全是空,是Flink的反压机制就是这样,还是说这个版本的Metrics有问题。
Ada Luna 于2021年8月16日周一 下午4:16写道:
>
> 版本1.10.1
> 最近我观察很多FlinkSQL 任务的反压指标发现,反压为High算子的outputPoolUsage是满的
> inputPoolUsage是空,反压源头inputPoolUsage和outputPoolUsage都是空的,这是正常的嘛。
版本1.10.1
最近我观察很多FlinkSQL 任务的反压指标发现,反压为High算子的outputPoolUsage是满的
inputPoolUsage是空,反压源头inputPoolUsage和outputPoolUsage都是空的,这是正常的嘛。
目前注册UDF要通过Table API。
未来会通过SQL直接将UDF注册到上下文中吗?
这个不知道未来怎么规划
Paul Lam 于2021年7月30日周五 下午2:51写道:
>
> 现在是不能共享的。Flink JobManager 的 principal 在启动时就确定了。
>
> Best,
> Paul Lam
>
> > 2021年7月30日 14:46,Ada Luna 写道:
> >
> > 在Flink Yarn Session中每次提交Job都更换principal。因为要做权限隔离,每个用户有自己的principal。
> >
> > 现在 Flink
在Flink Yarn Session中每次提交Job都更换principal。因为要做权限隔离,每个用户有自己的principal。
现在 Flink Session模式是不是无法满足多个principal共享一个Flink Session集群,只能走perjob。
或者每个持有独立principal的用户独享一个Session。
最后我发现问题的根源是双流JOIN没设置TTL。双流JOIN task的 OutputBuffer会被打满。然后Flink就处于假死状态了。不再消费任何数据。
Ada Luna 于2021年7月19日周一 下午7:06写道:
>
> 异步IO的Order队列打满,导致算子卡死?
>
> Ada Luna 于2021年7月19日周一 下午2:02写道:
> >
> > 我通过反压信息观察到,这个 async wait operator
> > 算子上游全部出现严重反压。很有可能是这个算子死锁或者死循环等类似问题。但是我还不
异步IO的Order队列打满,导致算子卡死?
Ada Luna 于2021年7月19日周一 下午2:02写道:
>
> 我通过反压信息观察到,这个 async wait operator
> 算子上游全部出现严重反压。很有可能是这个算子死锁或者死循环等类似问题。但是我还不知道如何进一步排查。
>
> "async wait operator -> (where: (=(CASE(>(ABS(Z), WaterRoseMax_5), 1,
> 0), 0)), select: (ID, STID, _UTF-16
untime.tasks.OneInputStreamTask.run(OneInputStreamTask.java:105)
at
org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:302)
at org.apache.flink.runtime.taskmanager.Task.run(Task.java:711)
at java.lang.Thread.run(Thread.java:748)
Yun Tang 于2021年7月6日周二 下午4:01写道:
>
> H
streaming.runtime.tasks.SourceStreamTask.run(SourceStreamTask.java:97)
> at
> org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:302)
> at org.apache.flink.runtime.taskmanager.Task.run(Task.java:711)
> at java.lang.Thread.run(Thread.java:748)
>
> Ada Luna 于202
time.tasks.StreamTask.invoke(StreamTask.java:302)
at org.apache.flink.runtime.taskmanager.Task.run(Task.java:711)
at java.lang.Thread.run(Thread.java:748)
Ada Luna 于2021年7月6日周二 上午10:13写道:
>
> 下面报错调大TaskManager内存即可解决,但是我不知道为什么Flink内存不够大会出现如下假死情况。申请内存卡住。整个任务状态为RUNNING但是不再消费数据。
>
>
>
>
下面报错调大TaskManager内存即可解决,但是我不知道为什么Flink内存不够大会出现如下假死情况。申请内存卡住。整个任务状态为RUNNING但是不再消费数据。
"Map -> to: Tuple2 -> Map -> (from: (id, sid, item, val, unit, dt,
after_index, tablename, PROCTIME) -> where: (AND(=(tablename,
CONCAT(_UTF-16LE't_real', currtime2(dt, _UTF-16LE'MMdd'))),
OR(=(after_index, _
好的后续我会在这个ticket简述方案。
Lin Li 于2021年6月10日周四 下午12:02写道:
>
> 社区之前有过基于 legacy source 的 pr
> https://issues.apache.org/jira/browse/FLINK-14902, 不过目前没有进展, 欢迎贡献!
> cc Guowei Ma
>
>
> Luna Wong 于2021年6月10日周四 上午11:16写道:
>
> > 如果没有我用VertX和Druid连接池贡献下代码。这个要在dev邮件列表里讨论是吗
> >
28 matches
Mail list logo