这是个依赖问题,你检查下你环境中是否只使用sql connector 的jar,即 flink-sql-connector-elasticsearch7,
如果不是 datastream 作业是不需要 flink-connector-elasticsearch7 这个
jar包的。如果不是这个问题,你可以分析下你作业里使用的 es 相关依赖,可以参考异常栈确定类再去确定jar包,看下是不是多加了一些无用的jar。
祝好,
Leonard
> 在 2021年11月22日,12:30,mispower 写道:
>
> 你好,咨询一下后续你这个问题是如何解决的?
>
>
>
Hi Pinjie,
如果是需要 event triggered 的累計統計更新的話,可以考慮使用 SQL over aggregation
[1]。例如文件中提供的如下範例,計算當前 row 往前一小時內的加總結果。
> SELECT order_id, order_time, amount,
> SUM(amount) OVER (
> PARTITION BY product
> ORDER BY order_time
> RANGE BETWEEN INTERVAL '1' HOUR PRECEDING AND CURRENT ROW
> )
如果你是想每时每刻(实际上开销很大,假设是每 1 分钟),那就用 Sliding Window
Best,
tison.
tison 于2021年11月23日周二 下午2:00写道:
> 你的理解里就是必须整点对齐嘛,那其实是可以加个 offset 不整点对齐的捏。
>
> Best,
> tison.
>
>
> tison 于2021年11月23日周二 下午1:59写道:
>
>>
>>
你的理解里就是必须整点对齐嘛,那其实是可以加个 offset 不整点对齐的捏。
Best,
tison.
tison 于2021年11月23日周二 下午1:59写道:
>
> https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/dev/table/sql/queries/window-tvf/
>
> 你可以关注一下这里有个 offset 参数,这样就能用 tumbling window 了 =。=
>
> Best,
> tison.
>
>
> Pinjie Huang 于2021年11月23日周二
哦哦,懂了,那还有另一个问题。你什么时候需要知道呢?
是只有半小时时刻吗,还是随时随刻都可能,如果是随时随刻都希望能拿到过去1h,这个本身就没意义,比如1s分成1000ms,每个ms你都希望拿到过去1h的数据,只能按照sliding
window做,而且这个性能消耗很高,取决于你究竟多久需要拿到一次。
如果你只是固定的不希望用0-1,1-2,而是需要0.5-1.5,1.5-2.5这样的话使用offset就可以实现。
Pinjie Huang 于2021年11月23日周二 下午1:18写道:
> Hi Yidan,
>
> Tumbling window 只有
> t=0~1h
>
https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/dev/table/sql/queries/window-tvf/
你可以关注一下这里有个 offset 参数,这样就能用 tumbling window 了 =。=
Best,
tison.
Pinjie Huang 于2021年11月23日周二 下午1:18写道:
> Hi Yidan,
>
> Tumbling window 只有
> t=0~1h
> t=1~2h
> 等等的window
>
> 我现在需要在 t=X 时刻,得到 t=(X-1)
Hi Yidan,
Tumbling window 只有
t=0~1h
t=1~2h
等等的window
我现在需要在 t=X 时刻,得到 t=(X-1) ~ X 的window 比如
t=1.5h 时刻 我需要 t=0.5~1.5h 这个window
On Tue, Nov 23, 2021 at 12:32 PM yidan zhao wrote:
> 其实问题还是没描述清楚,所以遇到问题究竟是啥,没发现tumbling window不行。
>
> zhiyuan su 于2021年11月22日周一 下午4:59写道:
>
> >
其实问题还是没描述清楚,所以遇到问题究竟是啥,没发现tumbling window不行。
zhiyuan su 于2021年11月22日周一 下午4:59写道:
> 感觉你的场景是近实时累计统计,你可以参考下window TVF 看下是否满足
>
> https://flink-learning.org.cn/article/detail/a8b0895d4271bf6b770927eea214612d?tab=SQL=1
> 具体在第2章第一节
>
> Pinjie Huang 于2021年11月22日周一 下午3:52写道:
>
> > Hi friends,
> >
> >
??flink1.12??flink-conf.yaml??state.checkpoints.num-retained:
3checkpoint??1checkpoint??on yarn
Hi!
这是从 hive 里产生的错误。据我所知,hive 对 Java 11 的支持仍在建设中 [1],因此还是建议使用 Java 8。
[1] https://issues.apache.org/jira/browse/HIVE-22415
aiden <18765295...@163.com> 于2021年11月22日周一 下午12:00写道:
> 求助,jdk从8升级到11后使用hive作为flink
> table的catalog抛错,排查是bsTableEnv.registerCatalog(catalogName, catalog)
> 抛错,具体异常为:
>
Hi,
环境:flink-1.14.0,单节点standalone
https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/deployment/filesystems/s3/
参考官方文档,执行下面命令:
mkdir plugins/s3-fs-hadoop
cp opt/flink-s3-fs-hadoop-1.14.0.jar plugins/s3-fs-hadoop/
在flink-conf中配置了hadoop的路径(s3使用了hadoop的配置文件)
hi,
环境:
1. flink-1.12,版本可以升级
2. flink-conf中配置了env.hadoop.conf.dir,路径下有hdfs集群的core-site.xml和hdfs-site.xml,
state.backend保存在该HDFS上
3. flink的部署模式是K8S+session
需求:
需要从一个s3协议的分布式文件系统中读取文件,处理完写到mysql中
问题:
s3配置采用hadoop的配置方式,保存为一个新的core-site.xml文件,参考的
??venv.zip??1.14.0??
----
??:
"user-zh"
Flink分布式缓存怎么没有效果呢,这里不好贴代码,可以看这个链接下
https://issues.apache.org/jira/browse/FLINK-24973
麻烦解答下,是我用的不对还是理解不对.
感谢,我已经解决了。
更换了jdk 版本,重新替换了插件包
RS 于2021年11月22日周一 下午1:44写道:
> 图片看不到的,尽量不要发图片,你可以复制文字出来并说明下,
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
> 在 2021-11-22 13:14:13,"zhiyuan su" 写道:
>
> 我使用的是上面的jar 包。从1.13的文档处获取的,但维标注flink 版本,我理解应该是flink1.13版本编译的。
>
>
>
> 这个是yaml文件,我直接在sql 客户端,通过DDL 的方式去编写的话,也是如下报错:
> Caused by:
感觉你的场景是近实时累计统计,你可以参考下window TVF 看下是否满足
https://flink-learning.org.cn/article/detail/a8b0895d4271bf6b770927eea214612d?tab=SQL=1
具体在第2章第一节
Pinjie Huang 于2021年11月22日周一 下午3:52写道:
> Hi friends,
>
> Flink 自带的window 有tumlbing sliding 和 session 但是似乎没有event triggerred。
>
> 比如说 想知道过去1小时event A
16 matches
Mail list logo