Re: 答复: 关于FLinkSQL如何创建类json无限扩展的表结构问题

2020-09-20 文章 chuyuan
LEGACY('RAW', 'ANY')对应sql中数据类型改为:MAP,仍然报错,异常: org.apache.flink.table.api.TableException: A raw type backed by type information has no serializable string representation. It needs to be resolved into a proper raw type. 方便说下具体实现细节吗? -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: [ANNOUNCE] Apache Flink 1.11.2 released

2020-09-20 文章 Yu Li
Thanks Zhu Zhu for being our release manager and everyone else who made the release possible! Best Regards, Yu On Thu, 17 Sep 2020 at 13:29, Zhu Zhu wrote: > The Apache Flink community is very happy to announce the release of Apache > Flink 1.11.2, which is the second bugfix release for the Ap

线上环境出现:org.apache.kafka.common.serialization.StringSerializer is not an instance of org.apache.kafka.common.serialization.Serializer,本地没有

2020-09-20 文章 Jeff
在本地IDEA里测试处理相同TOPIC正常,但在线上环境出现了这样的异常: org.apache.kafka.common.serialization.StringSerializer is not an instance of org.apache.kafka.common.serialization.Serializer。将StringSerializer 换成 ByteArraySerializer也是类似错误,不知道该如何解决该问题了。请问还有其它思路来解决这个问题吗? 业务逻辑非常简单:从SOURCE表内过滤数据到sink表。 flink版本:1.11.1 kafka版本:2

Re: flink-CDC client 一对多问题

2020-09-20 文章 silence
可以写一个group_array的udaf select * from aa as a left join ( select userId,group_array(row(userId, userBankNo, userBankNo)) from bb group by userId ) as b where a.userId=b.userId -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: 任务提交中使用了hive的udf时的疑问

2020-09-20 文章 Rui Li
Hi, 这种模式目前还不支持,因为现在没有动态添加jar的功能,所以需要事先把依赖的jar准备好。 On Mon, Sep 21, 2020 at 9:47 AM Husky Zeng <568793...@qq.com> wrote: > Hi all, > > 在提交的flink任务中使用了hive的udf时,任务的运行会依赖一些udf相关的jar包,配置文件等资源。 > > > 在我们的生产环境中,这些udf相关的jar包,配置文件都由hive的metaStore统一管理着,因此,flink在同hive交互时,是可以拿到这些文件的远程存储路径的(hdfs路径)。 > > > 我们

消费kafka source反压

2020-09-20 文章 smq
大家好,在测试flink消费速率时,发现数据处理比较慢,大概一个task每秒处理1000条左右,经过查看UI界面,发现读取kafka数据源这块source反压达到1,请问有这方面经验吗?

Re: Re: [SQL] parse table name from sql statement

2020-09-20 文章 Harold.Miao
主要是我没有完整的所有单元case, 总是感觉写的不完整。 郭士榕 于2020年9月21日周一 上午11:08写道: > > > > 就是要一个一个判断做解析下推的,比如你举的SqlJoin例子, 然后继续left,right下推。 > > > > > > > > > > > > > > > 在 2020-09-21 10:50:31,"Harold.Miao" 写道: > >主要是嵌套回溯特别复杂, 例如getFrom之后后面可能又是嵌套一个SqlJoin等等类似情况太多。 还有要做很多的类型转换。 > > > >郭士榕 于2020年9月21日周一 上午10:21写道: > >

Re: 退订

2020-09-20 文章 Congxian Qiu
Hi 退订请发邮件到 user-zh-unsubscr...@flink.apache.org 详情可以参考文档[1] [1] https://flink.apache.org/community.html#mailing-lists Best, Congxian Han Xiao(联通集团联通支付有限公司总部) 于2020年9月18日周五 下午2:52写道: > > 退订 > > 如果您错误接收了该邮件,请通过电子邮件立即通知我们。请回复邮件到 > hqs-s...@chinaunicom.cn,即可以退订此邮件。我们将立即将您的信息从我们的发送目录中删除。 > I

Re: [ANNOUNCE] Apache Flink 1.11.2 released

2020-09-20 文章 Congxian Qiu
Thanks for being the release manager Zhu Zhu and everyone involved in! Best, Congxian Weijie Guo 2 于2020年9月18日周五 下午11:42写道: > Good job! Very thanks @ZhuZhu for driving this and thanks for all > contributed > to the release! > > best, > Weijie > Zhu Zhu-2 wrote > > The Apache Flink community is

Re: flink-CDC client 一对多问题

2020-09-20 文章 Jark Wu
你可以通过 groupby collect 来将一对多的关系聚合起来,代码类似如下: select userId, collect(userBankTime) from ( select userId, concat(userBankNo, '_', createTime) as userBankTime from aa as a left join bb as b where a.userId=b.userId ) group by userId; Best, Jark On Mon, 21 Sep 2020 at 12:20, Li,Qian(DXM,PB) wrot

flink-CDC client 一对多问题

2020-09-20 文章 Li,Qian(DXM,PB)
请问: 我在使用Flink CDC SQL CLI的时候,想将关联的两张表的一对多关系 映射成ARRAY[ROW(userBankNo,createTime)]的形式,要怎么映射呢? 表aa id, userId 表 bb userId,userBankNo,createTime select * from aa as a left join bb as b where a.userId=b.userId 谢谢!

Re:Re: [SQL] parse table name from sql statement

2020-09-20 文章 郭士榕
就是要一个一个判断做解析下推的,比如你举的SqlJoin例子, 然后继续left,right下推。 在 2020-09-21 10:50:31,"Harold.Miao" 写道: >主要是嵌套回溯特别复杂, 例如getFrom之后后面可能又是嵌套一个SqlJoin等等类似情况太多。 还有要做很多的类型转换。 > >郭士榕 于2020年9月21日周一 上午10:21写道: > >> 可以使用calcite。解析kind为CREATE_TABLE的语句,解析INSERT,下推from的表。 >> >> >> >> >> >> 在 2020-09-21 10:

Re: Table api son schema

2020-09-20 文章 chuyuan
hello,我也遇到了类似的问题,最终的解决方案能分享下吗? -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: [SQL] parse table name from sql statement

2020-09-20 文章 Harold.Miao
主要是嵌套回溯特别复杂, 例如getFrom之后后面可能又是嵌套一个SqlJoin等等类似情况太多。 还有要做很多的类型转换。 郭士榕 于2020年9月21日周一 上午10:21写道: > 可以使用calcite。解析kind为CREATE_TABLE的语句,解析INSERT,下推from的表。 > > > > > > 在 2020-09-21 10:12:13,"Harold.Miao" 写道: > >hi all > > > >请教大家在复杂sql语句中parse所有的table name是怎么实现的。 > > > >谢谢 > > > >-- > > > >Best Regard

Re: FlinkKafkaConsumer on Yarn 模式下 设置并行度无法提高kafka的消费速度,但是提交两个应用却可以

2020-09-20 文章 ying
单个app的网卡输出有上限是因为读取 kafka 的并发是有限的: 对一个 group,为了保证同一 partition 内消息的有序,需要确保同一个 partition 只有一个 consumer.因此你的 partition 个数决定了 consumer 的个数,是有上限的。 多个 app 是多个 group,所以观察到网卡流量也就上来了 所以本质上还是得看下当前是 kafka 消费的瓶颈还是计算时效的问题,如果是前者就增加partition,后者提高并发才有用。 刚接触flink时看到别人的一个情况: 1. kafka partition > flink parallelism,一

Re:[SQL] parse table name from sql statement

2020-09-20 文章 郭士榕
可以使用calcite。解析kind为CREATE_TABLE的语句,解析INSERT,下推from的表。 在 2020-09-21 10:12:13,"Harold.Miao" 写道: >hi all > >请教大家在复杂sql语句中parse所有的table name是怎么实现的。 > >谢谢 > >-- > >Best Regards, >Harold Miao

[SQL] parse table name from sql statement

2020-09-20 文章 Harold.Miao
hi all 请教大家在复杂sql语句中parse所有的table name是怎么实现的。 谢谢 -- Best Regards, Harold Miao

任务提交中使用了hive的udf时的疑问

2020-09-20 文章 Husky Zeng
Hi all, 在提交的flink任务中使用了hive的udf时,任务的运行会依赖一些udf相关的jar包,配置文件等资源。 在我们的生产环境中,这些udf相关的jar包,配置文件都由hive的metaStore统一管理着,因此,flink在同hive交互时,是可以拿到这些文件的远程存储路径的(hdfs路径)。 我们希望flink任务在提交时能够只提交这些从hive中得到的文件路径,而不必传输这些文件(在flink外围去做这样一个查询hive然后下载文件的事情,在生产环境中相当于多了一个步骤,带来了不必要的风险,因此希望能够在flink任务运行时自动完成这些事情)。在这样的方案里,fl

flink任务中使用hive的udf时的一个疑问

2020-09-20 文章 Husky Zeng
Hi all, 在提交的flink任务中使用了hive的udf时,任务的运行会依赖一些udf相关的jar包,配置文件等资源。 在我们的生产环境中,这些udf相关的jar包,配置文件都由hive的metaStore统一管理着,因此,flink在同hive交互时,是可以拿到这些文件的远程存储路径的(hdfs路径)。 我们希望flink任务在提交时能够只提交这些从hive中得到的文件路径,而不必传输这些文件(在flink外围去做这样一个查询hive然后下载文件的事情,在生产环境中相当于多了一个步骤,带来了不必要的风险,因此希望能够在flink任务运行时自动完成这些事情)。在这样的方案里,fl