Re: flink1.12.2 StreamingFileSink 问题

2021-04-15 文章 张锴
maven 仓库flink-connector-filesystem 最高1.11.3,也能用吗? guoyb <861277...@qq.com> 于2021年4月15日周四 下午10:01写道: > 1.12.0的也可以,大版本一样就行了 > > > > ---原始邮件--- > 发件人: "张锴" 发送时间: 2021年4月15日(周四) 下午5:16 > 收件人: "user-zh" 主题: flink1.12.2 StreamingFileSink 问题 > > > > flink用的1.12.2,要sink到hdfs,选用了StreamingFileSink,导入依赖的时候m

native k8s flink 更新configmap获取锁失败

2021-04-15 文章 1120344670
您好: 我们线上flink集群一个pod更新configmap时报错,我们有两个pod做的k8s原生高可用。 pod1 日志:(也是当时configmap里面保存的leader pod, ip: 10.20.0.39) 2021-04-15 20:42:26,058 INFO org.apache.flink.kubernetes.kubeclient.resources.KubernetesLeaderElector [] - New leader elected 7d4a9b5c-39aa-4103-963b-eaf24ea6435a for tuiwen-flink-res

Re: flink1.12.1 Sink数据到ES7,遇到 Invalid lambda deserialization 问题

2021-04-15 文章 Yangze Guo
可以参考下[1], 如果是相同的问题,将依赖改为flink-connector-elasticsearch [1] https://issues.apache.org/jira/browse/FLINK-18857 Best, Yangze Guo On Fri, Apr 16, 2021 at 10:43 AM Yangze Guo wrote: > > 有完整报错栈或者日志能发下么? > > Best, > Yangze Guo > > On Fri, Apr 16, 2021 at 9:33 AM william <712677...@qq.com> wrote: > > >

找不到kafka ConsumerRecord包

2021-04-15 文章 guoyb
本地模式可以执行成功 提交到yarn,报错 java.lang.ClassNotFoundException:org.apache.kafka.clients.consumer.ConsumerRecord lib包里有sql-connector-kafka,请问这是什么情况导致的?可以怎么排查,yarn上有哪些jar包呢。

Re: flink1.12.1 Sink数据到ES7,遇到 Invalid lambda deserialization 问题

2021-04-15 文章 Yangze Guo
有完整报错栈或者日志能发下么? Best, Yangze Guo On Fri, Apr 16, 2021 at 9:33 AM william <712677...@qq.com> wrote: > > > > > > -- > Sent from: http://apache-flink.147419.n8.nabble.com/

flink1.12.1 Sink数据到ES7,遇到 Invalid lambda deserialization 问题

2021-04-15 文章 william
-- Sent from: http://apache-flink.147419.n8.nabble.com/

mysql-cdc ??????????????????????

2021-04-15 文章 ????????
hi:   ?? pyflink??1.12.0vmysql-cdc??      mysql??5.7 vbinlog??       CREATE TABLE test (         id int,         name string,         age int,                         PRIMARY KEY (id) NOT

Re: 关于Flink SQL中Interval Join使用时watermark的疑惑

2021-04-15 文章 HunterXHunter
问题一: Interval Join doesn't support consuming update and delete changes是因为输入A或者B是一个更新流 问题二:interval join使用buffer来缓存A和B的数据,没有放在state里,只有在watermark超过下边界会触发onEventtime清理 buffer。 延迟问题:没有类似statettl的配置,interval join不受statettl控制清除状态 乱序问题:如果 B的数据时间小于 watermark则匹配不到,一切是跟watermmark相关 以上个人看源码理解的。希望有帮助 -- S

Re: Flink CEP事件查询,如何在flink运行中动态更新cep规则

2021-04-15 文章 HunterXHunter
可能需要修改源码: https://blog.csdn.net/young_0609/article/details/110407781 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: flink 1.12.2 sql-cli 写入Hive报错 is_generic

2021-04-15 文章 HunterXHunter
但是用process-time是有数据的,目前用partition-time一直没成功写出过数据 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: Flink CEP 使用Keyby之后无法输出结果

2021-04-15 文章 HunterXHunter
这不是一个问题,是我理解的问题。感谢 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: 关于Flink SQL中Interval Join使用时watermark的疑惑

2021-04-15 文章 HunterXHunter
1: Interval Join doesn't support consuming update and delete changes 是因为A或B是一个update stream 2: Interval Join 的临时数据是放在buffer中,当wtm超过边界时间就会清理掉 buffer也就join不到了。所以 statettl无法控制A流的缓存数据。 延迟问题:所以如果wtm不更新,A流的数据不会被清理因为不受statettl控制 乱序问题:如果B流的旧时间小于 watermark就join不上 以上是个人理解、、 -- Sent from: http://apac

mysql-cdc??????????????????????

2021-04-15 文章 ????????
??       ??pyflink??mysql-cdcmysql??5.7 vbinlog CREATE TABLE test ( id int, name string, age int, PRIMARY KEY (id) NOT ENFORCED ) WITH ( 'connector' = 'mysql-cdc', 'host

Re: BUG :DataStream 转 Table 后无法 触发窗口计算

2021-04-15 文章 HunterXHunter
有人知道这个bug吗 -- Sent from: http://apache-flink.147419.n8.nabble.com/

回复:阿里云oss

2021-04-15 文章 superainbower
已解决 | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制 在2021年04月15日 15:38,superainbower 写道: Hi,请教一下大家,本地环境仅部署了Flink集群,没有Hadoop环境,按照官网在plugins中新增目录添加flink-oss*.jar,在flink-conf.yml中添加fs.oss相关配置 还需要做什么才可以正常读写oss呢,目前现在在sqlclient中,会提示No FileSystem for scheme: oss | | superainbower | | super

[ANNOUNCE] Apache Flink Stateful Functions 3.0.0 released

2021-04-15 文章 Tzu-Li (Gordon) Tai
The Apache Flink community is very happy to announce the release of Apache Flink Stateful Functions (StateFun) 3.0.0. StateFun is a cross-platform stack for building Stateful Serverless applications, making it radically simpler to develop scalable, consistent, and elastic distributed applications.

回复:flink1.12.2 StreamingFileSink 问题

2021-04-15 文章 guoyb
1.12.0的也可以,大版本一样就行了 ---原始邮件--- 发件人: "张锴"

Re: flink sql 写hdfs问题

2021-04-15 文章 JasonLee
hi 你需要添加下面两个参数: 'csv.line-delimiter'='', 'csv.disable-quote-character'='true' - Best Wishes JasonLee -- Sent from: http://apache-flink.147419.n8.nabble.com/

flink sql 写hdfs问题

2021-04-15 文章 酷酷的浑蛋
flink.version=1.12.0 Create table t1( a varchar )with ( connector=kafka format=json ) Create table t2( a varchar )with ( connector=filesystem format=csv ) SQL: Insert into t2 select a from t1 发送: {"a":[{"a1":1,"a2":2}]} Hdfs的结果为:"[{""a1"":1,""a2"":2}]” 问题:为什么一个双引号

flink sql 写hdfs问题

2021-04-15 文章 酷酷的浑蛋
flink.version=1.12.0 Create table t1( a varchar )with ( connector=kafka format=json ) Create table t2( a varchar )with ( connector=filesystem format=csv ) SQL: Insert into t2 select a from t1 发送: {"a":[{"a1":1,"a2":2}]} Hdfs的结果为:"[{""a1"":1,""a2"":2}]” 问题:为什么一个双引号

flink sql写filesystem问题

2021-04-15 文章 酷酷的浑蛋
Create table t1( a varchar )with ( connector=kafka format=json ) Create table t2( a varchar )with ( connector=filesystem format=csv ) SQL: Insert into t2 select a from t1 发送: {"a":[{"a1":1,"a2":2}]} Hdfs的结果为:"[{""a1"":1,""a2"":2}]” 问题:为什么一个双引号变成了2个双引号? 发送到其它目标是正常的

flink1.12.2 StreamingFileSink 问题

2021-04-15 文章 张锴
flink用的1.12.2,要sink到hdfs,选用了StreamingFileSink,导入依赖的时候maven仓库并没有1.12.2的flink-connector-filesystem的jar包,我应该选用哪个版本合适

Re: Job结束后,JobMaster没有及时GC掉, 导致JobManager OOM

2021-04-15 文章 jun su
hi all, 合理的话这里的ScheduledExecutor的delay参数是否可以和slot.request.timeout和idle.timeout两个参数分开配置? public void start( @Nonnull JobMasterId jobMasterId, @Nonnull String newJobManagerAddress, @Nonnull ComponentMainThreadExecutor componentMainThreadExecutor) throws Exception { this.jobMasterId = j

Re: Job结束后,JobMaster没有及时GC掉, 导致JobManager OOM

2021-04-15 文章 jun su
hi all, 通过看源码发现了问题 : 短时间内提交大量Job后, JobManager进程会OOM的原因是这些Job所属的JobMaster没被及时的GC掉. 原因是JobMaster所属的SlotPoolImpl在启动时后会定期的检查有没有pending slot request, 如果发生了time out的情况会做相应的cancel操作, 而这个周期任务的延迟是slot.idle.timeout和slot.request.timeout两个参数决定的, 所以在Job执行完毕后, 因为周期检查的线程还有一次在等待周期时间, 这导致SlotPoolImpl和JobMaster都在

Re: Flink CEP事件查询,如何在flink运行中动态更新cep规则

2021-04-15 文章 mokaful
broadcast stream读取zk配置 + groovy动态编译生成pattern -- Sent from: http://apache-flink.147419.n8.nabble.com/

Clean up old chk-xxx directory strategy optimization

2021-04-15 文章 ????
Hi community, For some high-parallel Flink jobs, when hdfs Namenode is under pressure, JM cleaning files becomes a bottleneck. I have some questions and hope to be answered. thanks. Motivation: Flink job: Parallelism = 4000 Checkpoint interval = 10s More than 5 Operators include State, an

阿里云oss

2021-04-15 文章 superainbower
Hi,请教一下大家,本地环境仅部署了Flink集群,没有Hadoop环境,按照官网在plugins中新增目录添加flink-oss*.jar,在flink-conf.yml中添加fs.oss相关配置 还需要做什么才可以正常读写oss呢,目前现在在sqlclient中,会提示No FileSystem for scheme: oss | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制

Flink CEP????????????????flink??????????????cep????

2021-04-15 文章 Asahi Lee
hi??       flink cep??cep