假设需要每秒统计过去一天用户登录次数指标的话,一条数据就会落在多达86400个窗口上,每个窗口都会产用state大小,而且每秒输出状态到下游,即使状态没有发生变化也会重复输出,造成下游算子写入压力大,请问有什么好的办法可以规避么?请分别从flink
stream api和sql讲解一下,谢谢!
sel.chen wrote:
>
>> 场景是使用flink
>> sql流表lookup关联维表(一对多,部分数据会出现一条关联出上千条结果)后只取其中一条,这会导致维表查询压力非常大,像这种有没有办法在flink
>> sql层面进行谓词下推?
>> 从flink UI上看该lookup join算子的输出数据量是输入数据量的几百倍
Greetings,
The Google BigQuery team is reaching out to help customers employ the Flink
BigQuery connector for building better data streaming and analytics
solutions. We recently released a new version (0.4.0), which can be
accessed via GitHub
<https://github.com/GoogleCloudDataproc/flink-bigqu
Hi Benoit,
Please find the result here[1].
The Nexmark repo[2] does not officially support the flink 2.0 preview
version. However, we have made a PR[3] for this and once it is merged, we
will offer a guide to run Nexmark Q20 with disaggregated state management.
[1] https://github.com/ververica
The Apache Flink community is very happy to announce the release of Apache
Flink Kubernetes Operator 1.10.0
The Flink Kubernetes Operator allows users to manage their Apache Flink
applications and their lifecycle through native k8s tooling like kubectl.
Please check out the release blog post for
Hi Enric
I clone the code from apache/flink repo and import it to Idea, But there
was nothing unexpected.
在 2024年10月23日星期三,Enric Ott <243816...@qq.com> 写道:
> How to import the source code(from github) to Intelligent Idea,seems that
> a project descriptor is missing.
>
>
> --
The Apache Flink community is very happy to announce the release of Apache
Flink 2.0 Preview.
Apache Flink® is an open-source unified stream and batch data processing
framework for distributed, high-performing, always-available, and accurate
data applications.
This release is a preview of the
TM上没有报错,在监控上看不处理数据了,cp也超时。
Xuyang 于2024年9月30日周一 10:18写道:
> Hi, chen.
>
> 你可以把TM日志报错的栈和上下文贴上来吗?
>
>
>
>
> --
>
> Best!
> Xuyang
>
>
>
>
>
> At 2024-09-29 10:00:44, "rui chen" wrote:
> >1.A single piece of data is 500kb
> >2.The job restarts after a tm fails
>
1.A single piece of data is 500kb
2.The job restarts after a tm fails
Dear Flink Community,
We are excited to share some important news with you!
Flink Forward Asia 2024 is coming up with two major events: the first in
Shanghai on November 29-30, and the second in Jakarta on December 5. These
gatherings will focus on the latest developments, future plans, and
目前还未支持。
https://cwiki.apache.org/confluence/pages/viewpage.action?pageId=195730308
Best,
Feng
On Thu, Sep 12, 2024 at 10:20 AM 王凯 <2813732...@qq.com.invalid> wrote:
> 请问下各位大佬开源flink CEP是否支持动态规则配置
>
>
>
>
> 王凯
> 2813732...@qq.com
>
>
>
>
> "user-zh"
>
>发送时间: 2024年8月29日(星期四) 下午2:56
>收件人: "user-zh"
>主题: Re:
修改下游的sink connector,在execute的时候把-D、-U的record去掉
flink 1.20 添加了 MDC[1] 支持,使用 logback 的时候存在bug,logback context 会返回 null 值,下游处理会引起
npe
issue: [flink 1.20 not suport logback]
https://issues.apache.org/jira/browse/FLINK-36104
MDC [1]:
https://nightlies.apache.org/flink/flink-docs-release-1.20/docs/deployment/advanced/logging/#structured
在Flink SQL 中如何将 retract 流中-D、-U 直接过滤 只下发+I 和
+U数据,通过写udf可以做到吗,那在udf中怎么判断当前数据是什么类型呢(+I or -D?)
通过yarn提交时,提交成功后,yarn client会返回 application master的地址和端口,从返回信息里面获取就可以
wjw_bigdata 于2024年8月1日周四 14:24写道:
> 退订
>
>
>
>
>
>
> 回复的原邮件
> | 发件人 | Lei Wang |
> | 发送日期 | 2024年8月1日 14:08 |
> | 收件人 | |
> | 主题 | Re: flink on yarn 模式,在jar任务中,怎么获取rest port |
>
退订
回复的原邮件
| 发件人 | Lei Wang |
| 发送日期 | 2024年8月1日 14:08 |
| 收件人 | |
| 主题 | Re: flink on yarn 模式,在jar任务中,怎么获取rest port |
在 flink-conf.yaml 中可以指定 rest.port, 可指定一个范围
On Wed, Jul 31, 2024 at 8:44 PM melin li wrote:
flink on yarn 模式, rest port 是随机的,需要获取rest port,有什么好办法?
在 flink-conf.yaml 中可以指定 rest.port, 可指定一个范围
On Wed, Jul 31, 2024 at 8:44 PM melin li wrote:
> flink on yarn 模式, rest port 是随机的,需要获取rest port,有什么好办法?
>
flink on yarn 模式, rest port 是随机的,需要获取rest port,有什么好办法?
<
> decq12y...@gmail.com>;
> 发送时间: 2024年7月18日(星期四) 晚上7:55
> 收件人: "user-zh"
> 主题: Re: flink 任务运行抛ClassNotFoundException
>
>
>
> 你好,这个类被 shade 了,但是调用这个类的其他类可能在不同的 jar 包,没有都被 shade 处理。可以 grep -rn
> 'org.apache.hudi.com.xx.xx.xxx.A' 看看所有调用这个类的包是
你好,这个类被 shade 了,但是调用这个类的其他类可能在不同的 jar 包,没有都被 shade 处理。可以 grep -rn
'org.apache.hudi.com.xx.xx.xxx.A' 看看所有调用这个类的包是不是都做了 shade 处理。
℡小新的蜡笔不见嘞、 <1515827...@qq.com.invalid> 于2024年7月18日周四 18:31写道:
> 请问,Flink 任务运行期间 偶尔会抛出 ClassNotFoundException 异常,这个一般是什么原因,以及怎么解决呢?信息如下:
> * 这个类确实存
退订
Px New <15701181132mr@gmail.com> 于2024年7月16日周二 22:52写道:
> 通过老的API 也就是 InputFormatSourceFunction、InputFormat
> 实现了一版,但发现第一批文件(任务启动时也已存在的文件)会正常处理,但我新上传文件后,这里一直为空,有解决思路吗?请问
>
> [image: image.png]
>
> 或者有其他实现 ftp 目录实时读取的实现吗?尽可能满足
> 1. 实时读取 ftp 文件
> 2. 支持持续监测目录及递归子目录与文件3.
> 3. 支持并行读取以及大文件的
通过老的API 也就是 InputFormatSourceFunction、InputFormat
实现了一版,但发现第一批文件(任务启动时也已存在的文件)会正常处理,但我新上传文件后,这里一直为空,有解决思路吗?请问
[image: image.png]
或者有其他实现 ftp 目录实时读取的实现吗?尽可能满足
1. 实时读取 ftp 文件
2. 支持持续监测目录及递归子目录与文件3.
3. 支持并行读取以及大文件的切分
4. 文件种类可能有 json、txt、zip 等,支持读取不同类型文件内的数据
5. 支持断点续传以及状态的保存
猜测是两个JM同时都在向ZK的rest_service_lock节点上写入自身地址,导致Flink客户端的任务有的提交到了一个JM,另一些任务提交到了另一个JM
通过手动修改ZK节点可以复现上述情况。
无法只通过重启ZK完全复现当时的集群, 不清楚上述情况的根本原因,是否有相似BUG出现
回复的原邮件
| 发件人 | Zhanghao Chen |
| 日期 | 2024年07月13日 12:41 |
| 收件人 | user-zh@flink.apache.org |
| 抄送至 | |
| 主题 | Re: Flink Standalone-ZK-HA模式下
从日志看,ZK 集群滚动的时候发生了切主,两个 JM 都先后成为过 Leader,但是并没有同时是 Leader。
Best,
Zhanghao Chen
From: love_h1...@126.com
Sent: Friday, July 12, 2024 17:17
To: user-zh@flink.apache.org
Subject: Flink Standalone-ZK-HA模式下,CLi任务提交
版本:Flink 1.11.6版本,Standalone HA模式,ZooKeeper 3.5.8版本
退订
回复的原邮件
| 发件人 | love_h1...@126.com |
| 日期 | 2024年07月11日 16:10 |
| 收件人 | user-zh@flink.apache.org |
| 抄送至 | |
| 主题 | Flink在HA模式,重启ZK集群,客户端任务提交异常 |
问题现象:
Flink 1.11.6版本,Standalone HA模式, 滚动重启了ZK集群;在Flink集群的一个节点上使用flink run 命令提交多个任务;
部分任务提交失败,异常信息如下:
[Flink-DispatcherRestEndpoint-thread
问题现象:
Flink 1.11.6版本,Standalone HA模式, 滚动重启了ZK集群;在Flink集群的一个节点上使用flink run 命令提交多个任务;
部分任务提交失败,异常信息如下:
[Flink-DispatcherRestEndpoint-thread-2] - [WARN ] -
[org.apache.flink.runtime.rpc.akka.AkkaInvocationHandler.createRpcInvocationMessage(line:290)]
- Could not create remote rpc invocation
Thank you, Gyula! 🥳
Cheers
On Wed, Jul 3, 2024 at 8:00 AM Gyula Fóra wrote:
> The Apache Flink community is very happy to announce the release of Apache
> Flink Kubernetes Operator 1.9.0.
>
> The Flink Kubernetes Operator allows users to manage their Apache Flink
> applica
The Apache Flink community is very happy to announce the release of Apache
Flink Kubernetes Operator 1.9.0.
The Flink Kubernetes Operator allows users to manage their Apache Flink
applications and their lifecycle through native k8s tooling like kubectl.
Release blogpost:
https://flink.apache.org
Flink 1.16.0
搜索到社区有相关文章,其中的实例如下:
https://flink.apache.org/2022/11/25/optimising-the-throughput-of-async-sinks-using-a-custom-ratelimitingstrategy/#rationale-behind-the-ratelimitingstrategy-interface
public class TokenBucketRateLimitingStrategy implements RateLimitingStrategy
lookup join可以关联多张维表,但是维表的更新不会触发历史数据刷新。
多维表关联的时候,需要考虑多次关联导致的延迟,以及查询tps对维表数据库的压力。
斗鱼 <1227581...@qq.com.invalid> 于2024年6月19日周三 23:12写道:
> 好的,感谢大佬的回复,之前有了解到Flink的Lookup join好像可以实现类似逻辑,只是不知道Lookup join会不会支持多张动态维度表呢?
>
>
> 斗鱼
> 1227581...@qq.com
>
>
>
>
维表更新后要刷新历史的事实表吗?这个用flink来做的话,几乎不太可能实现,尤其是涉及到多个维表,相当于每次维表又更新了,就要从整个历史数据里面找到关联的数据,重新写入。不管是状态存储,还是更新数据量,需要的资源都太高,无法处理。
在我们目前的实时宽表应用里面,实时表部分一般都是流水类的,取到的维表信息,就应该是业务事实发生时的数据。
维表更新后刷新事实的,一般都是夜间批量再更新。如果有强实时更新需求的,只能在查询时再关联维表取最新值
王旭 于2024年6月16日周日 21:20写道:
> 互相交流哈,我们也在做类似的改造
> 1.不确定需要关联几张维表的话,是否可以直接
Well done! Thanks a lot for your hard work!
Best,
Paul Lam
> 2024年6月19日 09:47,Leonard Xu 写道:
>
> Congratulations! Thanks Qingsheng for the release work and all contributors
> involved.
>
> Best,
> Leonard
>
>> 2024年6月18日 下午11:50,Qingsheng Ren 写道:
>>
&
Congratulations! Thanks Qingsheng for the release work and all contributors
involved.
Best,
Leonard
> 2024年6月18日 下午11:50,Qingsheng Ren 写道:
>
> The Apache Flink community is very happy to announce the release of Apache
> Flink CDC 3.1.1.
>
> Apache Flink CDC is a distribute
The Apache Flink community is very happy to announce the release of Apache
Flink CDC 3.1.1.
Apache Flink CDC is a distributed data integration tool for real time data
and batch data, bringing the simplicity and elegance of data integration
via YAML to describe the data movement and transformation
各位大佬,
背景:
实际测试flink读Kafka 数据写入hudi, checkpoint的间隔时间是1min,
state.backend分别为filesystem,测试结果如下:
写hudi的checkpoint 的延迟
写iceberg得延迟:
疑问: hudi的checkpoint的文件数据比iceberg要大很多,如何降低flink写hudi的checkpoint的延迟?
| |
博星
|
|
15868861...@163.com
|
.n??
| ?? | <1227581...@qq.com.INVALID> |
| | 2024??06??16?? 21:08 |
| ?? | user-zh |
| ?? | |
| | ??Flinkjoin??n?? |
???
??flink sql apidatastream api??
| ?? | <1227581...@qq.com.INVALID> |
| | 2024??06??16?? 20:35 |
| ?? | user-zh |
| ?? | |
| ???? | Flinkjoin?
??
1DWD??KafkaDWD
2Kafka
3??FlinkKafka1,2??FlinkKafka??DWD1
你好,DataStream 的方式需要设置 includeSchemaChanges(true) 参数,并且设置自定义的
deserializer,参考这个链接[1]。
如果不想使用 json 的方式,希望自定义 deserializer,从 SourceRecord 里提取 ddl
的方式可以参考这个链接[2]提供的方案。
[1]
https://nightlies.apache.org/flink/flink-cdc-docs-master/docs/faq/faq/#q6-i-want-to-get-ddl-events-in-the-database-what-should-i
Zapjone 好,
目前的 Schema Evolution 的实现依赖传递 CDC Event 事件的 Pipeline 连接器和框架。如果您希望插入自定义算子逻辑,建议参考
flink-cdc-composer 模块中的 FlinkPipelineComposer 类构建算子链作业的方式,并在其中插入自定义的 Operator
以实现您的业务逻辑。
另外,对于一些简单的处理逻辑,如果能够使用 YAML 作业的 Route(路由)、Transform(变换)功能表述的话,直接编写对应的 YAML
规则会更简单。
祝好!
Regards,
yux
De : zapjone
大佬们好:
想请假下,在flink
cdc3.0中支持schema变更,但看到是pipeline方式的,因业务问题需要使用datastream进行特殊处理,所以想请假下,在flink cdc
3.0中datastream api中怎么使用schema变更呢?或者相关文档呢?
Hi, 现在flink sql还没有办法限流。有需求的话可以建一个jira[1],在社区推进下。
[1] https://issues.apache.org/jira/projects/FLINK/issues
--
Best!
Xuyang
在 2024-06-05 15:33:30,"casel.chen" 写道:
>flink sql作业要如何配置进行限流消费呢?以防止打爆存储系统
>
>
>
>
>
>
>
>
>
>
>
>
>
&
flink sql作业要如何配置进行限流消费呢?以防止打爆存储系统
在 2024-06-05 14:46:23,"Alex Ching" 写道:
>从代码上看,Flink
>内部是有限速的组件的。org.apache.flink.api.common.io.ratelimiting.GuavaFlinkConnectorRateLimiter,
>但是并没有在connector中使用。
>
>casel.chen 于2024年6月5日周三 14:36写道:
>
>> kafka本
从代码上看,Flink
内部是有限速的组件的。org.apache.flink.api.common.io.ratelimiting.GuavaFlinkConnectorRateLimiter,
但是并没有在connector中使用。
casel.chen 于2024年6月5日周三 14:36写道:
> kafka本身是支持消费限流的[1],但这些消费限流参数在flink kafka sql
> connector中不起作用,请问这是为什么?如何才能给flink kafka source table消费限速? 谢谢!
>
>
> [1] https:
kafka本身是支持消费限流的[1],但这些消费限流参数在flink kafka sql connector中不起作用,请问这是为什么?如何才能给flink
kafka source table消费限速? 谢谢!
[1] https://blog.csdn.net/qq_37774171/article/details/122816246
您好,
Iceberg 为 Flink 实现的 connector 同时支持 DataStream API 和 Table API[1]。其 DataStream
API 提供 Append(默认行为)、Overwrite、Upsert 三种可选的模式,您可以使用下面的 Java 代码片段实现:
首先创建对应数据行 Schema 格式的反序列化器,例如,可以使用 RowDataDebeziumDeserializeSchema 的生成器来快速构造一个:
private RowDataDebeziumDeserializeSchema getDeserializer
各位大佬好:
想请教下,在使用mysql-cdc到iceberg,通过sql方式可以实现自动更新和删除功能。但在使用datastream
api进行处理后,注册成临时表,怎么实现类似于sql方式的自动更新和删除呢?
您好!
看起来这个问题与 FLINK-35066[1] 有关,该问题描述了在 IterationBody 内实现自定义的RichCoProcessFunction 或
CoFlatMapFunction 算子时遇到的拆包问题,可以追溯到这个[2]邮件列表中的问题报告。看起来这个问题也同样影响您使用的
RichCoMapFunction 算子。
该问题已被此 Pull Request[3] 解决,并已合入 master 主分支。按照文档[4]尝试在本地编译 2.4-SNAPSHOT
快照版本并执行您的代码,看起来能够正常工作。
鉴于这是一个 Flink ML 2.3 版本中的已知问题
flink sqlgateway
提交sql作业,发现sqlgateway服务启动后,默认是当前机器的租户信息进行任务提交到yarn集群,由于公司的hadoop集群设置了租户权限,需要设置提交的用户信息,各位大佬,flink
sqlgateway 提交sql作业如何设置组账号
| |
阿华田
|
|
a15733178...@163.com
|
签名由网易邮箱大师定制
Flink SQL消费kafka topic有办法限速么?场景是消费kafka
topic数据写入下游mongodb,在业务高峰期时下游mongodb写入压力大,希望能够限速消费kafka,请问要如何实现?
Hi,
目前Iterate api在1.19版本上废弃了,不再支持,具体可以参考[1][2]。Flip[1]中提供了另一种替代的办法[3]
[1]
https://cwiki.apache.org/confluence/display/FLINK/FLIP-357%3A+Deprecate+Iteration+API+of+DataStream
[2] https://issues.apache.org/jira/browse/FLINK-33144
[3] https://cwiki.apache.org/confluence/pages/viewpage.action
尊敬的Flink开发团队:
您好!
我目前正在学习如何使用Apache Flink的DataStream API实现迭代算法,例如图的单源最短路径。在Flink
1.18版本的文档中,我注意到有关于iterate操作的介绍,具体请见:https://nightlies.apache.org/flink/flink-docs-release-1.18/docs/dev/datastream/overview/#iterations
但是,我发现Flink
1.19版本的文档中不再提及iterate操作。这让我有些困惑。不知道在最新版本中,这是否意味着iterate操作不再被支持?如
>;
> >
> > Cc recipient:"dev"< d...@flink.apache.org >;"user"<
> > u...@flink.apache.org >;"user-zh"< user-zh@flink.apache.org >;"Apache
> > Announce List"< annou...@apache.org >;
> >
> > Subject:Re: [A
ime:2024/5/17 23:10
>
> To:"Qingsheng Ren"< re...@apache.org >;
>
> Cc recipient:"dev"< d...@flink.apache.org >;"user"< u...@flink.apache.org
> >;"user-zh"< user-zh@flink.apache.org >;"Apache Announce List"<
>
Congratulations !
Thanks for all contributors.
Best,
Zhongqiang Gong
Qingsheng Ren 于 2024年5月17日周五 17:33写道:
> The Apache Flink community is very happy to announce the release of
> Apache Flink CDC 3.1.0.
>
> Apache Flink CDC is a distributed data integration tool for real tim
Congratulations!
Thanks for the great work.
Best,
Hang
Qingsheng Ren 于2024年5月17日周五 17:33写道:
> The Apache Flink community is very happy to announce the release of
> Apache Flink CDC 3.1.0.
>
> Apache Flink CDC is a distributed data integration tool for real time
> data and batch
Congratulations !
Thanks Qingsheng for the great work and all contributors involved !!
Best,
Leonard
> 2024年5月17日 下午5:32,Qingsheng Ren 写道:
>
> The Apache Flink community is very happy to announce the release of
> Apache Flink CDC 3.1.0.
>
> Apache Flink CDC is a distribute
The Apache Flink community is very happy to announce the release of
Apache Flink CDC 3.1.0.
Apache Flink CDC is a distributed data integration tool for real time
data and batch data, bringing the simplicity and elegance of data
integration via YAML to describe the data movement and transformation
看起来和 FLINK-34063 / FLINK-33863 是同样的问题,您可以升级到1.18.2 试试看。
[1] https://issues.apache.org/jira/browse/FLINK-33863
[2] https://issues.apache.org/jira/browse/FLINK-34063
陈叶超 于2024年5月16日周四 16:38写道:
>
> 升级到 flink 1.18.1 ,任务重启状态恢复的话,遇到如下报错:
> 2024-04-09 13:03:48
> java.lang.Exception: Exc
Hello!
I have a Flink Job with CEP pattern.
Pattern example:
// Strict Contiguity
// a b+ c d e
Pattern.begin("a", AfterMatchSkipStrategy.skipPastLastEvent()).where(...)
.next("b").where(...).oneOrMore()
.next("c").where(...)
升级到 flink 1.18.1 ,任务重启状态恢复的话,遇到如下报错:
2024-04-09 13:03:48
java.lang.Exception: Exception while creating StreamOperatorStateContext.
at
org.apache.flink.streaming.api.operators.StreamTaskStateInitializerImpl.streamOperatorStateContext(StreamTaskStateInitializerImpl.java:258)
at
Hi,
> 现在可以用中文了?
我看你发的是中文答疑邮箱
> 就是opt目录里面的gateway.jar直接编辑Factory文件把connector注册就行了
你的意思是,之前报错类似"找不到一个jdbc
connector",然后直接在gateway的jar包里的META-INF/services内的Factory文件(SPI文件)内加入jdbc
connector的Factory实现类就好了吗?
如果是这个问题就有点奇怪,因为本身flink-connector-jdbc的spi文件就已经将相关的类写进去了[1],按理说放
>
>
>
>
> [1] https://issues.apache.org/jira/projects/FLINK/summary
>
>
>
>
> --
>
>Best!
>Xuyang
>
>
>
>
>
>> 在 2024-05-10 12:26:22,abc15...@163.com 写道:
>> I've solved it. You need to register the number of connectio
Hi,
我觉得如果只是从贡献的角度来说,支持flink hologres
connector是没问题的,hologres目前作为比较热门的数据库,肯定是有很多需求的,并且现在aliyun
github官方也基于此提供了开源的flink hologres connector[1]。
但是涉及到aliyun等公司商业化的ververica-connector-hologres包,如果想直接开源的话,在我的角度最好事先确认下面几点,不然可能会隐含一些法律风险
1. jar包的提供方(aliyun等公司)是否知情、且愿意开源,不然直接拿着商业化的东西给出来有
Hi, 看起来你之前的问题是jdbc driver找不到,可以简单描述下你的解决的方法吗?“注册connection数的数量”有点不太好理解。
如果确实有类似的问题、并且通过这种手段解决了的话,可以建一个improvement的jira issue[1]来帮助社区跟踪、改善这个问题,感谢!
[1] https://issues.apache.org/jira/projects/FLINK/summary
--
Best!
Xuyang
在 2024-05-10 12:26:22,abc15...@163.com 写道:
>I
我们有使用阿里云商业版Hologres数据库,同时我们有自研的Flink实时计算平台,为了实现在Hologres上实时建仓,我们基于开源Apache
Flink 1.17.1结合阿里云maven仓库的ververica-connector-hologres包[1]和开源的holo
client[2]开发了hologres
connector,修复了一些jar依赖问题。目前我们已经在生产环境使用了一段时间,暂时没有发现问题,现在想将它贡献给社区。
请问:
1. 贡献Flink Hologres连接器是否合规?
2. 如果合规的话,PR应该提到哪个项目代码仓库?
3. 还是说要像
退订
Replied Message
| From | abc15...@163.com |
| Date | 05/10/2024 12:26 |
| To | user-zh@flink.apache.org |
| Cc | |
| Subject | Re: use flink 1.19 JDBC Driver can find jdbc connector |
I've solved it. You need to register the number of connections in the jar of
gateway. But th
xists in
> it?
>
>
>
>
> --
>
>Best!
>Xuyang
>
>
>
>
>
> At 2024-05-09 17:48:33, "McClone" wrote:
>> I put flink-connector-jdbc into flink\lib.use flink 1.19 JDBC Driver can not
>> find jdbc connector,but use sql-client is normal.
Hi, can you print the classloader and verify if the jdbc connector exists in it?
--
Best!
Xuyang
At 2024-05-09 17:48:33, "McClone" wrote:
>I put flink-connector-jdbc into flink\lib.use flink 1.19 JDBC Driver can not
>find jdbc connector,but use sql-client is normal.
如题
I put flink-connector-jdbc into flink\lib.use flink 1.19 JDBC Driver can not
find jdbc connector,but use sql-client is normal.
以处理时间为升序,处理结果肯定不会出现回撤的,因为往后的时间不会比当前时间小了,你可以在试试这个去重
On Tue, Apr 30, 2024 at 3:35 PM 焦童 wrote:
> 谢谢你的建议 但是top-1也会产生回撤信息
>
> > 2024年4月30日 15:27,ha.fen...@aisino.com 写道:
> >
> > 可以参考这个
> >
> https://nightlies.apache.org/flink/flink-docs-release-1.19/zh/docs/de
谢谢你的建议 但是top-1也会产生回撤信息
> 2024年4月30日 15:27,ha.fen...@aisino.com 写道:
>
> 可以参考这个
> https://nightlies.apache.org/flink/flink-docs-release-1.19/zh/docs/dev/table/sql/queries/deduplication/
> 1.11版本不知道是不是支持
>
> From: 焦童
> Date: 2024-04-30 11:25
> To: user-zh
> Subjec
Hello ,
我使用Flink 1.11 版本 sql 进行数据去重(通过 group by
形式)但是这会产生回撤流,下游存储不支持回撤流信息仅支持append,在DataStream
中我可以通过状态进行去重,但是在sql中如何做到去重且不产生回撤流呢。谢谢各位
Hi Team,
我们这边的业务使用 Flink MySQL CDC到 OpenSearch并且使用TABLE API: INSERT INTO t1 SELECT *
FROM t2 这种方式。
由于我们这边可能会在运行过程中添加额外的Operator,我们有办法在使用snapshot 恢复后保留之前src和sink
operator的状态么?我看到在DataStream API可以通过设定uid。Table API有同样的方法吗?我看到Flink
jira:https://issues.apache.org/jira/browse/FLINK-28861
可以设置
流模式和批模式在watermark和一些算子语义等方面上有一些不同,但没看到Join和Window算子上有什么差异,这方面应该在batch
mode下应该是支持的。具体的两种模式的比较可以看一下这个文档
https://nightlies.apache.org/flink/flink-docs-master/zh/docs/dev/datastream/execution_mode/
On Thu, Apr 18, 2024 at 9:44 AM casel.chen wrote:
>
> 有人尝试这么实践过么?可以给一些
我最近在调研Flink实时数仓数据质量保障,需要定期(每10/20/30分钟)跑批核对实时数仓产生的数据,传统方式是通过spark作业跑批,如Apache
DolphinScheduler的数据质量模块。
但这种方式的最大缺点是需要使用spark sql重写flink sql业务逻辑,难以确保二者一致性。所以我在考虑能否使用Flink流批一体特性,复用flink
sql,只需要将数据源从cdc或kafka换成hologres或starrocks表,再新建跑批结果表,最后只需要比较相同时间段内实时结果表和跑批结果表的数据即可。不过有几点疑问:
1. 原实时flink sql表定义中包含的
Hi, Perez.
Flink use SPI to find the jdbc connector in the classloader and when starting,
the dir '${FLINK_ROOT}/lib' will be added
into the classpath. That is why in AWS the exception throws. IMO there are two
ways to solve this question.
1. upload the connector jar to AWS
Hi all,
I am using AWS Managed Flink 1.18, where I am getting this error when trying to
submit my job:
```
Caused by: org.apache.flink.table.api.ValidationException: Cannot discover a
connector using option: 'connector'='j
你好:
如果想长期保留已完成的任务,推荐使用 History Server :
https://nightlies.apache.org/flink/flink-docs-release-1.19/docs/deployment/config/#history-server
Best,
Zhongqiang Gong
ha.fen...@aisino.com 于2024年4月9日周二 10:39写道:
> 在WEBUI里面,已完成的任务会在completed jobs里面能够看到,过了一会再进去看数据就没有了,是有什么配置自动删除吗?
>
有一个过期时间的配置
https://nightlies.apache.org/flink/flink-docs-release-1.19/docs/deployment/config/#jobstore-expiration-time
| |
spoon_lz
|
|
spoon...@126.com
|
回复的原邮件
| 发件人 | ha.fen...@aisino.com |
| 发送日期 | 2024年04月9日 10:38 |
| 收件人 | user-zh |
| 主题 | flink 已完成job等一段时间会消失 |
在WEBUI里面,已完成的任
你好,目前flink cdc没有提供未消费binlog数据条数这样的指标,你可以通过 currentFetchEventTimeLag
这个指标(表示消费到的binlog数据中时间与当前时间延迟)来判断当前消费情况。
[1]
https://github.com/apache/flink-cdc/blob/master/flink-cdc-connect/flink-cdc-source-connectors/flink-connector-mysql-cdc/src/main/java/org/apache/flink/cdc/connectors/mysql/source
请问flink cdc对外有暴露一些监控metrics么?
我希望能够监控到使用flink cdc的实时作业当前未消费的binlog数据条数,类似于kafka topic消费积压监控。
想通过这个监控防止flink cdc实时作业消费慢而被套圈(最大binlog条数如何获取?)
Congratulations! Thanks Max for the release and all involved for the great
work!
A gentle reminder to users: the maven artifact has just been released and
will take some time to complete.
Best,
Rui
On Mon, Mar 25, 2024 at 6:35 PM Maximilian Michels wrote:
> The Apache Flink community is v
The Apache Flink community is very happy to announce the release of
the Apache Flink Kubernetes Operator version 1.8.0.
The Flink Kubernetes Operator allows users to manage their Apache
Flink applications on Kubernetes through all aspects of their
lifecycle.
Release highlights:
- Flink
Congrattulations! Thanks for the great work!
Best,
Zhongqiang Gong
Leonard Xu 于2024年3月20日周三 21:36写道:
> Hi devs and users,
>
> We are thrilled to announce that the donation of Flink CDC as a
> sub-project of Apache Flink has completed. We invite you to explore the new
> reso
gt;>
>> > > > >> Best,
>> > > > >> Lincoln Lee
>> > > > >>
>> > > > >>
>> > > > >> Peter Huang 于2024年3月20日周三 22:48写道:
>> > > > >>
>> > > > &g
t; > > >> Best,
> > > > >> Lincoln Lee
> > > > >>
> > > > >>
> > > > >> Peter Huang 于2024年3月20日周三 22:48写道:
> > > > >>
> > > > >>> Congratulations
> > > > >>>
>
; > >>> Best Regards
> > > >>> Peter Huang
> > > >>>
> > > >>> On Wed, Mar 20, 2024 at 6:56 AM Huajie Wang
> > > wrote:
> > > >>>
> > > >>>>
> > > >>>&g
>>>
> > >>> Best Regards
> > >>> Peter Huang
> > >>>
> > >>> On Wed, Mar 20, 2024 at 6:56 AM Huajie Wang
> > wrote:
> > >>>
> > >>>>
> > >>>> Congratulations
> > >>>>
;>>>> Best,
>>>>> Lincoln Lee
>>>>>
>>>>>
>>>>> Peter Huang 于2024年3月20日周三 22:48写道:
>>>>>
>>>>>> Congratulations
>>>>>>
>>>>>>
>>>>>> Best Regards
>>>>&
;>>
> > >>>
> > >>> Best Regards
> > >>> Peter Huang
> > >>>
> > >>> On Wed, Mar 20, 2024 at 6:56 AM Huajie Wang
> > wrote:
> > >>>
> > >>>>
> > >>>> Cong
22:48写道:
> >>
> >>> Congratulations
> >>>
> >>>
> >>> Best Regards
> >>> Peter Huang
> >>>
> >>> On Wed, Mar 20, 2024 at 6:56 AM Huajie Wang
> wrote:
> >>>
> >>>>
> >>>> Congratulat
gratulations
>>>>
>>>>
>>>> Best Regards
>>>> Peter Huang
>>>>
>>>> On Wed, Mar 20, 2024 at 6:56 AM Huajie Wang wrote:
>>>>
>>>>>
>>>>> Congratulations
>>>>>
>>>>&g
t; Congratulations
>>>>
>>>>
>>>>
>>>> Best,
>>>> Huajie Wang
>>>>
>>>>
>>>>
>>>> Leonard Xu 于2024年3月20日周三 21:36写道:
>>>>
>>>>> Hi devs and users,
>>>>>
&
ang
>>
>> On Wed, Mar 20, 2024 at 6:56 AM Huajie Wang wrote:
>>
>>>
>>> Congratulations
>>>
>>>
>>>
>>> Best,
>>> Huajie Wang
>>>
>>>
>>>
>>> Leonard Xu 于2024年3月20日周三 21:36写道:
>&
; Best,
>> Huajie Wang
>>
>>
>>
>> Leonard Xu 于2024年3月20日周三 21:36写道:
>>
>>> Hi devs and users,
>>>
>>> We are thrilled to announce that the donation of Flink CDC as a
>>> sub-project of Apache Flink has completed. We inv
Congratulations
Best,
Huajie Wang
Leonard Xu 于2024年3月20日周三 21:36写道:
> Hi devs and users,
>
> We are thrilled to announce that the donation of Flink CDC as a
> sub-project of Apache Flink has completed. We invite you to explore the new
> resources available:
>
> - Git
Hi devs and users,
We are thrilled to announce that the donation of Flink CDC as a sub-project of
Apache Flink has completed. We invite you to explore the new resources
available:
- GitHub Repository: https://github.com/apache/flink-cdc
- Flink CDC Documentation:
https://nightlies.apache.org
共有 6165 项搜索結果,以下是第 1 - 100 matches
Mail list logo