Reply:flinksql 流维join 问题

2021-07-06 文章 guoyb
select的问题,排查一下,单独查表是否有数据,关联条件。 ---Original--- From: "赵旭晨"

?????? flink-1.13.1 sql error

2021-06-21 文章 guoyb
?? ---- ??: "user-zh"

回复:窗口函数使用的时间类型

2021-06-01 文章 guoyb
谢谢!明天回公司再调试。 ---原始邮件--- 发件人: "MOBIN"<18814118...@163.com 发送时间: 2021年6月1日(周二) 晚上7:41 收件人: "user-zh@flink.apache.org"https://help.aliyun.com/document_detail/62512.html?spm=a2c4g.11186623.6.827.49531b09XfgsU7 | | MOBIN | 签名由网易邮箱大师定制 在2021年06月1日 19:37,guoyb<861277.

回复:窗口函数使用的时间类型

2021-06-01 文章 guoyb
好的,谢谢! 我试试 ---原始邮件--- 发件人: "Shuo Cheng"

回复:窗口函数使用的时间类型

2021-06-01 文章 guoyb
是的。 大神能否指条明路解决这问题。 ---原始邮件--- 发件人: "MOBIN"<18814118...@163.com 发送时间: 2021年6月1日(周二) 晚上7:09 收件人: "user-zh@flink.apache.org"

窗口函数使用的时间类型

2021-06-01 文章 guoyb
tumble() 开窗,需要的事件时间到底需要什么时间类型?一直报时间不对 timestamp(3) datetime time 都试过了,没有一个对的。

回复:Flink集成到CDH集群,Flink重启后web页面打不开

2021-05-09 文章 guoyb
去yarn后台,看看am落在哪个机器上面,地址就是那个。 ---原始邮件--- 发件人: "maker_d...@foxmail.com"

回复:Fwd: flink1.12.2 CLI连接hive出现异常

2021-05-06 文章 guoyb
看看yarn session是不是被kill掉了。 ---原始邮件--- 发件人: "Rui Li"

回复:Fwd: flink1.12.2 CLI连接hive出现异常

2021-04-27 文章 guoyb
我的也有这种问题,没解决,kerberos认证的hive导致的。 ---原始邮件--- 发件人: "张锴"

回复:解析kafka 非标准JSON问题

2021-04-27 文章 guoyb
好的,谢谢!我都试试看 ---原始邮件--- 发件人: "JasonLee"<17610775...@163.com 发送时间: 2021年4月27日(周二) 晚上7:14 收件人: "user-zh"http://apache-flink.147419.n8.nabble.com/

回复:解析kafka 非标准JSON问题

2021-04-27 文章 guoyb
SQL能实现吗? ---原始邮件--- 发件人: "19971028...@163.com"<19971028...@163.com 发送时间: 2021年4月27日(周二) 晚上6:51 收件人: "user-zh"

解析kafka 非标准JSON问题

2021-04-27 文章 guoyb
您好!请问遇到如下格式的该如何用SQL解析。 string {name=string} {id : 1, name : abram} eg: 2021-04-03x{name=aa} {id : 1, name : abram} 最重要为第三个字段 JSON,里面包含了data 第一和第二个字段可要可不要 请问,有思路可以参考吗?或者demo

回复:如何将flink sql 查询语句的count值取出

2021-04-20 文章 guoyb
可以看看这个demo https://github.com/bingoguo93/flink-1.12-sql-demo/blob/main/src/main/java/org/example/mysql/tableQueryMysql.java ---原始邮件--- 发件人: "张锴"

找不到kafka ConsumerRecord包

2021-04-15 文章 guoyb
本地模式可以执行成功 提交到yarn,报错 java.lang.ClassNotFoundException:org.apache.kafka.clients.consumer.ConsumerRecord lib包里有sql-connector-kafka,请问这是什么情况导致的?可以怎么排查,yarn上有哪些jar包呢。

回复:flink1.12.2 StreamingFileSink 问题

2021-04-15 文章 guoyb
1.12.0的也可以,大版本一样就行了 ---原始邮件--- 发件人: "张锴"

回复:(无主题)

2021-04-06 文章 guoyb
To remove your address from the list, send a message to:

回复: Flink 1.12.2 sql api 使用parquet格式报错

2021-04-06 文章 guoyb
加下测试看看,你这很明显没找到包 ---原始邮件--- 发件人: "user-zh-return-12015-861277329=qq.com"https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/table/connectors/formats/parquet.html 添加的依赖, 是需要把nbsp;flink-parquet_2.11 文件手动添加到 lib 目录才可以的吗? --nbsp;原始邮件nbsp;-- 发件人:

flink connector用户密码

2021-04-02 文章 guoyb
比如jdbc connector MySQL create table xxx () with( " user name"=" root" ," password"="123456" ) ; 用户密码可以怎么配置,可以不用明文这种方式。

Re: jdbc connectors

2021-04-01 文章 guoyb
不是replace,用的是insert into duplicate key update ---Original--- From: "liujian"<13597820...@qq.com Date: Thu, Apr 1, 2021 16:02 PM To: "user-zh"

回复:flink 从mysql读取数据异常

2021-03-29 文章 guoyb
可以读取的,还有内置flink cdc select得用query方法,看看是不是用错了execute。 ---原始邮件--- 发件人: "air23"https://ci.apache.org/projects/flink/flink-docs-release-1.12/zh/dev/table/connectors/jdbc.html 这边读取mysql jdbc数据报错Exception in thread "main" org.apache.flink.table.api.TableException: Only insert statement is supported

【数据加工流程求助】

2021-03-25 文章 guoyb
如果我的需求需要写入明细数据,还要根据明细数据做聚合,然后再把汇总数据入库。 这种数据加工的流程应该怎么设计比较好!

【MySQL cdc 的数据不能聚合】

2021-03-25 文章 guoyb
请问,MySQLcdc的数据,后续要聚合,应该放到upsertkafka吗?还是有其他方法。

MySQL cdc时态表join

2021-03-18 文章 guoyb
mysql cdc表 和kafka表关联,应该怎么写,有对应示例吗?

回复:【flink sql group by 时间窗口】

2021-03-17 文章 guoyb
这个问题换种写法解决了,从MySQL数据库表里取时间戳字段再转timestamp,可以实现滚动窗口,没报错。 从MySQL表里直接取datetime类型,jdbc表flink设置timestamp类型,会报错,直接取source的时间类型字段是不是转换有点问题。 ---原始邮件--- 发件人: "guoyb"<861277...@qq.com 发送时间: 2021年3月17日(周三) 下午5:43 收件人: "user-zh"

【flink sql group by 时间窗口】

2021-03-17 文章 guoyb
版本1.12.1 请问,支持事件时间吗?应该设置为哪种时间类型。 as_of_time time group by xx , tumble( as_of_time, interval "5" second) sql client报错, window aggregate can only be defined over a time attribute column, but time(0) encountered

回复:【flink sql-client 读写 Kerberos认证的hive】

2021-03-08 文章 guoyb
好的,谢谢! ---原始邮件--- 发件人: "Rui Li"https://issues.apache.org/jira/browse/FLINK-20913 有关了,这个issue是1.12.2修复的,可以升级一下试试。 On Mon, Mar 8, 2021 at 2:15 PM guoyb <861277...@qq.com wrote: 您好! hive.metastore.sasl.enabled 是true 启动sql client的时候,可以正常读取到认证信息,并读取metastore的表名。 读和写,认证就失败了

回复:【flink sql-client 读写 Kerberos认证的hive】

2021-03-07 文章 guoyb
您好! hive.metastore.sasl.enabled 是true 启动sql client的时候,可以正常读取到认证信息,并读取metastore的表名。 读和写,认证就失败了。 ---原始邮件--- 发件人: "Rui Li"

??flink ???? Kerberos??????hive ??

2021-03-06 文章 guoyb
?? flink1.12.1 hive2.1.0 CDH6.2.0 Kerberoshive?? Kerberos hive metastore?? ??sql-client.sh embedded?? Flink SQL show tables; dimension_table dimension_table1 test Flink SQL select * from