看起来是类似的,不过这个报错应该是作业失败之后的报错,看还有没有其他的异常日志。
Best,
Feng
On Sat, Nov 4, 2023 at 3:26 PM Ray wrote:
> 各位专家:当前遇到如下问题1、场景:在使用Yarn场景下提交flink任务2、版本:Flink1.15.03、日志:查看yarn上的日志发下,版本上的问题2023-11-04
> 15:04:42,313 ERROR org.apache.flink.util.FatalExitExceptionHandler
> [] - FATAL: Thread
各位专家:当前遇到如下问题1、场景:在使用Yarn场景下提交flink任务2、版本:Flink1.15.03、日志:查看yarn上的日志发下,版本上的问题2023-11-04
15:04:42,313 ERROR org.apache.flink.util.FatalExitExceptionHandler
[] - FATAL: Thread 'flink-akka.actor.internal-dispatcher-3' produced an
uncaught exception. Stopping the
by
> node Deduplicate(keep=[FirstRow], key=[id, name, event_time],
> order=[ROWTIME])
> ```
>
> 请问如何在使用Deduplicate之后进行Interval Join?
>
>
> > -原始邮件-
> > 发件人: LB
> > 发送时间: 2022-10-15 09:39:31 (星期六)
> > 收件人: user-zh
> > 抄送:
> > 主题: Flink
uming update and delete changes which is produced by
> node Deduplicate(keep=[FirstRow], key=[id, name, event_time],
> order=[ROWTIME])
> ```
>
> 请问如何在使用Deduplicate之后进行Interval Join?
>
>
> > -原始邮件-
> > 发件人: LB
> > 发送时间: 2022-10-15 09:39:31 (星期六)
> &
t_time], order=[ROWTIME])
```
请问如何在使用Deduplicate之后进行Interval Join?
> -原始邮件-
> 发件人: LB
> 发送时间: 2022-10-15 09:39:31 (星期六)
> 收件人: user-zh
> 抄送:
> 主题: Flink 1.15 Deduplicate之后Interval Join出错
>
> 抱歉上一封邮件格式有问题,以此为准。Hi! 我在使用Deduplicate之后进行Interval Join出现问题。我使用的Flink
Hi,你可以参考cdc社区中支持flink
1.15的issue[1]和pr[2],着急的话,可以尝试先cp这个pr到本地分支[1]https://github.com/ververica/flink-cdc-connectors/issues/1363[2]https://github.com/ververica/flink-cdc-connectors/pull/1504
在 2022-10-11 11:01:25,"casel.chen" 写道:
>当前flinlk cdc master分支的snapshot版本最高支持到flink 1.1
当前flinlk cdc master分支的snapshot版本最高支持到flink 1.14.4,尝试使用flink 1.15.2编译会出错,请问flink
cdc什么时候支持flink 1.15.x?
uot;
发送时间: 星期一, 2022年 9 月 19日 下午 5:04:00
主题: Flink-1.15 HiveDynamicTableFactory 取Catalog使用
当前使用HiveDynamicTableFactory需要先声明HiveCatalog才可以使用。
请问能否把HiveDynamicTableFactory直接作为一个connector使用,或者说需要怎么调整才可以直接使用?
当前使用HiveDynamicTableFactory需要先声明HiveCatalog才可以使用。
请问能否把HiveDynamicTableFactory直接作为一个connector使用,或者说需要怎么调整才可以直接使用?
大佬们好,有用过1.15 FileSink DataStream api的合并小文件功能吗,我这里写文件用gz格式压缩,发现合并后的文件读不了。
Format
Type使用的是FileSink.forBulkFormat;BulkWriter.Factory使用的是CompressWriterFactory,使用gz压缩;合并文件的Compactor使用的是原生的ConcatFileCompactor。
以下是使用FileSink的相关代码:
CompressWriterFactory writer =
大佬们好,有用过1.15 FileSink DataStream
api的合并小文件功能吗,我这里写文件用gz格式压缩,发现合并后的文件读不了,合并文件用的是ConcatFileCompactor。
以下是使用FileSink的相关代码:
CompressWriter使用gz压缩,Compactor使用的是原生的ConcatFileCompactor。
当压缩的小文件被合并后,发现这个被合并的文件不可读:
text: invalid block type
请问是1.15 FileSink DataStream
不是的哈。MVP 是 Minimum Viable Product (最简可行产品)的缩写,代表一个只实现了核心功能,听取早期用户反馈来后续进一步完善的版本。
Best,
Zhanghao Chen
From: guanyq
Sent: Saturday, April 2, 2022 14:56
To: user-zh@flink.apache.org
Subject: flink 1.15
看了FFA的分享(流批一体) Flink1.15版本推出 MVP版本,动态表存储的流批一体
请问MVP版本是收费版么?
看了FFA的分享(流批一体) Flink1.15版本推出 MVP版本,动态表存储的流批一体
请问MVP版本是收费版么?
Hi!
这是说单元测试有失败的 case,可以往上翻一翻找到具体是哪个 case 报给社区。
不过如果单纯只是为了编译,可以在 mvn 命令后添加 -DskipTests
选项来跳过测试。所有模块的测试总时长很长的(小时级别),如果只是编译的话只要十几分钟就编译好了。
Michael Ran 于2021年12月29日周三 14:16写道:
> dear all :
> 有朋友遇到过编译flink 1.15 master 出现这个异常吗?
>
>
>
>
> [ERROR] F
dear all :
有朋友遇到过编译flink 1.15 master 出现这个异常吗?
[ERROR] Failed to execute goal
org.apache.maven.plugins:maven-surefire-plugin:3.0.0-M5:test (default-test) on
project flink-runtime: There are test failures.
[ERROR]
[ERROR] Please refer to
/Users/qqr/work/git/fork/flink/flink
15 matches
Mail list logo