?????? flinksql1.11????????????????

2020-07-21 Thread ??????????????
?? ?? --  -- ??:

?????? flinksql1.11????????????????

2020-07-22 Thread ????
gt;>; ?? >>> >>> >>> HI >>> ????HELP >>> >>> >>> -- -- >>> ??: "" <11

?????? flinksql1.11????????????????

2020-07-22 Thread ????
HI, >> ?? >> >> >>> ?? 2020??7??2216:27?? <1129656...@qq.com <mailto:1129656...@qq.com>>; ?? >>> >>> >>> HI >>> ????HELP >>> ?

flinksql1.11????hive??ClassNotFoundException: org.apache.hadoop.fs.PathHandle

2021-02-21 Thread Presley
flinksql1.11hiveidea??Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.PathHandle_(:??)_ flink1.11??org.apache.flink.table.catalog.hive.HiveCatalog#HiveCatalog(java.lang.String, java.lang.String

??????flinksql1.11????hive??ClassNotFoundException: org.apache.hadoop.fs.PathHandle

2021-02-21 Thread Presley
--  -- ??: "Presley"

flinksql1.11 ????phoenix????????Caused by: org.apache.calcite.avatica.NoSuchStatementException

2021-01-05 Thread ????
?? flinkv1.11phoneix 1.14.1 CREATE TABLE pe_login_kafka (  id INT, region_id INT,  ts TIMESTAMP(3),  proc_time AS PROCTIME() ) WITH (  'connector' = 'kafka',  'topic' = 't-region,  'properties.bootstrap.servers' = '',  'properties.group.id' = gid'); CR

????: flinksql1.11 ????phoenix????????Caused by: org.apache.calcite.avatica.NoSuchStatementException

2021-01-05 Thread Evan
??bug ?? 2021-01-05 20:20 user-zh ?? flinksql1.11 phoenixCaused by: org.apache.calcite.avatica.NoSuchStatementException ?? flinkv1.11phoneix 1.14.1 CREATE TABLE

flinksql1.11中主键声明的问题

2020-07-21 Thread 1129656...@qq.com
hi: 我在使用pyflink1.11过程中,使用flinksql维表时声明了主键primary key 但是还是会报错说我没有用声明主键,另外,当我使用inner join代替left join就不会有这个问题,请问这是什么问题 下面我附录了报错信息和代码。谢谢! 报错附录 Traceback (most recent call last): File "/usr/local/lib/python3.7/site-packages/pyflink/util/exceptions.py", line 147, in deco return f(*a, **

flinksql1.11??????????????UDAF??????????No match found for function signature prod()

2021-02-23 Thread Presley
Hi,all: flinksql1.11hiveUDAFUDAFbug??_(:??)_ > - pub

Re: flinksql1.11中主键声明的问题

2020-07-21 Thread Leonard Xu
Hi, 你这还是connector的with参数里不是新 connector的写法[1],会走到老代码,老代码不支持声明PK的。 在老代码里,PK是通过query推导的,你用inner join替换left join后,应该是能够推断出PK了,所以没有报错。 我理解你把connector的with参数更新成新的就解决问题了。 Best Leonard Xu [1] https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/connectors/jdbc.html#connector-options

Re: flinksql1.11中主键声明的问题

2020-07-21 Thread Leonard Xu
Hello 你说的输出结果更新,是指之前关联的维表时老数据,过了一段时间,这个数据变,之前输出的历史也希望更新吗?维表join的实现,只有事实表中才会有retract消息才会更新,才会传递到下游,维表的数据是事实表 去look up该表时的数据,维表的更新是不会retract之前的历史记录的。 祝好 Leonard Xu > 在 2020年7月22日,14:13,1129656...@qq.com 写道: > > 输出结果仍然没有被更新

Re: flinksql1.11中主键声明的问题

2020-07-22 Thread Leonard Xu
--- 原始邮件 -- > 发件人: > "user-zh" > > 发送时间: 2020年7月22日(星期三) 下午2:42 > 收件人: "

Re: flinksql1.11中主键声明的问题

2020-07-22 Thread Leonard Xu
err 20200723084500 > 100 err 20200723084501 > > 然后我断开了流输入,间隔时间大于缓存刷新时间,然后重新输入流,但是我的新输出结果仅仅是更新了与流有关的时间字段,与维表相关的字段仍没有得到更新。 > > 请问我的使用过程哪里不对么,请帮我指出来,万分感谢! > > > 谢谢! > > >>> >>> > > > -- 原始邮件 --

回复: Re: flinksql1.11中主键声明的问题

2020-07-21 Thread 1129656...@qq.com
name' = '', 'password' = '', 'lookup.cache.max-rows' = '5000', 'lookup.cache.ttl' = '1s', 'lookup.max-retries' = '3' ) """ st_env.sql_update(source_dd

回复: Re: flinksql1.11中主键声明的问题

2020-07-22 Thread 琴师
ssword' = '***', 'lookup.cache.max-rows' = '5000', 'lookup.cache.ttl' = '1s', 'lookup.max-retries' = '3' ) """ st_env.sql_update(source_ddl) def register_rides_sink(st_env): sink_ddl

flinkSQL1.11写出数据到jdbc fleld type do not match

2020-10-19 Thread 奔跑的小飞袁
hello 我在使用flinksql1.11写出数据到jdbc是遇到了field type类型不匹配的问题,是我类型设置有问题吗? 下面是我的异常日志以及sql文件 SET stream.enableCheckpointing=1000*60; SET stream.setParallelism=3; -- Kafka cdbp zdao source 表 create TABLE cloud_behavior_source( operation STRING, operation_channel STRING, `time` STRING, ip

Re: flinkSQL1.11写出数据到jdbc fleld type do not match

2020-10-19 Thread Benchao Li
: > hello > 我在使用flinksql1.11写出数据到jdbc是遇到了field type类型不匹配的问题,是我类型设置有问题吗? > 下面是我的异常日志以及sql文件 > > SET stream.enableCheckpointing=1000*60; > SET stream.setParallelism=3; > > -- Kafka cdbp zdao source 表 > create TABLE cloud_behavior_source( > operation STRING, > oper

Re: 回复: flinksql1.11 查询phoenix维表报错Caused by: org.apache.calcite.avatica.NoSuchStatementException

2021-01-05 Thread hoose
@chengyanan1...@foxmail.com 你那里也遇过吗,这个要是bug,也不会修复呀 -- Sent from: http://apache-flink.147419.n8.nabble.com/

flinksql1.11长时间没有数据写入mysql,会报ava.sql.SQLException: No operations allowed after statement closed.

2020-12-02 Thread yanzi
使用flinksql 1.11版本,运行计算好的指标落入mysql,长时间没有数据会报错,导致任务会失败。 针对:https://issues.apache.org/jira/browse/FLINK-16681,已经修复此问题,但是我们使用1.11最新版本,运行一段时间后,发现还是会有此问题,如何解决 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: flinksql1.11长时间没有数据写入mysql,会报ava.sql.SQLException: No operations allowed after statement closed.

2020-12-02 Thread Leonard Xu
Hi,yanzi 可以贴下完整的报错信息吗? 祝好, Leonard Xu > 在 2020年12月3日,10:36,yanzi 写道: > > 使用flinksql 1.11版本,运行计算好的指标落入mysql,长时间没有数据会报错,导致任务会失败。 > 针对:https://issues.apache.org/jira/browse/FLINK-16681,已经修复此问题,但是我们使用1.11最新版本,运行一段时间后,发现还是会有此问题,如何解决 > > > > -- > Sent from: http://apache-flink.147419.n8.nabble.co

Re: flinksql1.11长时间没有数据写入mysql,会报ava.sql.SQLException: No operations allowed after statement closed.

2020-12-03 Thread yanzi
hi Leonard: 报错信息如下: [2020-12-02 22:01:03.403] [ERROR] [jdbc-upsert-output-format-thread-1] [org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat] >>> JDBC executeBatch error, retry times = 3 java.sql.SQLException: No operations allowed after statement closed. at com.mysql.jdbc

Re:Re: flinksql1.11长时间没有数据写入mysql,会报ava.sql.SQLException: No operations allowed after statement closed.

2020-12-03 Thread hailongwang
这个应该只是个 error 的日志,方便也发下retry times = 1 和 retry times = 2 的日志看下吗 在 2020-12-03 16:17:27,"yanzi" 写道: >hi Leonard: > >报错信息如下: >[2020-12-02 22:01:03.403] [ERROR] [jdbc-upsert-output-format-thread-1] >[org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat] >>> JDBC >executeBatch error,

Re: Re:Re: flinksql1.11长时间没有数据写入mysql,会报ava.sql.SQLException: No operations allowed after statement closed.

2020-12-03 Thread yanzi
1、retry times =1报错日志: [2020-12-02 22:01:00.800] [ERROR] [jdbc-upsert-output-format-thread-1] [org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat] >>> JDBC executeBatch error, retry times = 1 java.sql.SQLException: No operations allowed after statement closed. at com.mysql.jdb

flinksql1.11 使用eventime消费kafka多分区时,没有水位线信息,聚合计算也不出结果

2020-08-09 Thread zhanglachun
大佬好,我在1.11版本测试flink sql时发现一个问题,用streaming api 消费kafka,使用eventtime,再把stream转table,进行sql聚合,发现当kafka topic是多个分区时,flink webui watermarks 显示No Watermark,聚合计算也迟迟不触发计算,但当kafka topic只有一个分区时却能这个正常触发计算,watermarks也显示正常下面是测试代码:package com.test.opsimport java.util.Propertiesimport com.fasterxml.jackson.databin

Re: flinksql1.11 使用eventime消费kafka多分区时,没有水位线信息,聚合计算也不出结果

2020-08-09 Thread Zhao,Yi(SEC)
字体太小,代码也都被格式化了,不方便看。不过按照问题描述,猜测是kafka某个分区没数据,flink的watermark机制有多输入取小机制。如果某个分区没数据,可能导致watermark一直无法生成。 在 2020/8/9 下午9:38,“zhanglachun” 写入: 大佬好,我在1.11版本测试flink sql时发现一个问题,用streaming api 消费kafka,使用eventtime,再把stream转table,进行sql聚合,发现当kafka topic是多个分区时,flink webui watermarks 显示No Waterma

Re: Re: flinksql1.11 使用eventime消费kafka多分区时,没有水位线信息,聚合计算也不出结果

2020-08-10 Thread chengyanan1...@foxmail.com
@flink.apache.org 主题: Re: flinksql1.11 使用eventime消费kafka多分区时,没有水位线信息,聚合计算也不出结果 字体太小,代码也都被格式化了,不方便看。不过按照问题描述,猜测是kafka某个分区没数据,flink的watermark机制有多输入取小机制。如果某个分区没数据,可能导致watermark一直无法生成。 在 2020/8/9 下午9:38,“zhanglachun” 写入: 大佬好,我在1.11版本测试flink sql时发现一个问题,用streaming api 消费kafka,使用eventtime,再把stream转