Re:回复:Flinksql通过phoenix查询维表,报Caused by: org.apache.calcite.avatica.NoSuchStatementException

2020-12-01 文章 hailongwang
应该出现问题的之前任务都重启了下? 感觉是类加载顺序的问题,因为从栈看,正确的栈应该会出现 `PhoenixPreparedStatement`,但是却是 `AvaticaPreparedStatement `,说明是先加载到了 Avatica 下面的类。 1. 可以在启动的 tm 的 jvm 中加一个 `-verbose` 看下每次重启类是从哪个包加载出来的,是否符合预期, 2. 可以在 lookupfunction 里面直接使用 PhoenixPreparedStatement 类,而不是 `PreparedStatement` 接口,看能不能绕过。 Best ,

flink sql 1.11.1

2020-12-01 文章 zzy
遇到的问题如下, flink版本1.11.1,sql client 中使用flink sql sql语句如下: CREATE TABLE sls_log_sz_itsp ( request STRING, http_bundleId STRING, upstream_addr STRING, http_appid STRING, bodyUserId STRING, http_sequence STRING, http_version STRING, response_body STRING, uri STRING, bytes_sent STRING, http_userId

flink sql 1.11.1 貌似出现bug

2020-12-01 文章 zzy
遇到的问题如下, flink版本1.11.1,sql client 中使用flink sql sql语句如下: CREATE TABLE sls_log_sz_itsp ( request STRING, http_bundleId STRING, upstream_addr STRING, http_appid STRING, bodyUserId STRING, http_sequence STRING, http_version STRING, response_body STRING, uri STRING, bytes_sent

flink sql 1.11.1 貌似出现bug

2020-12-01 文章 zzy
遇到的问题如下, flink版本1.11.1,sql client 中使用flink sql sql语句如下: CREATE TABLE sls_log_sz_itsp ( request STRING, http_bundleId STRING, upstream_addr STRING, http_appid STRING, bodyUserId STRING, http_sequence STRING, http_version STRING, response_body STRING, uri STRING, bytes_sent

回复:修改topic名称后从Savepoint重启会怎么消费Kafka

2020-12-01 文章 Shuai Xia
hi,实时上并不是你说的这样,从sp重启时因为存在RestoreState,而且Topic名称被修改,会导致restoredState内找不到新的KafkaTopicPartition 新的消费位置会置为EARLIEST_OFFSET if (restoredState != null) { for (KafkaTopicPartition partition : allPartitions) { if (!restoredState.containsKey(partition)) { restoredState.put(partition,

??????Flinksql????phoenix????????????Caused by: org.apache.calcite.avatica.NoSuchStatementException

2020-12-01 文章 ????
?? connectorjdbc ?? statement.clearParameters(); statement = lookupKeyRowConverter.toExternal(keyRow, statement); try (ResultSet resultSet =

Flink TableAPI Issue: cannot assign instance of org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.util.LRUMap to field

2020-12-01 文章 Zed
When I submitted a flink-table-sql job to yarn, the following exception came out. Wondering how to solve it. Anyone can help me with that? Appreciate it org.apache.flink.streaming.runtime.tasks.StreamTaskException: Cannot instantiate user function. at

Flink TableAPI Issue: cannot assign instance of org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.util.LRUMap to field

2020-12-01 文章 Zed
When I submitted a flink-table-sql job to yarn, the following exception came out. Wondering how to solve it. Anyone can help me with that? Appreciate it org.apache.flink.streaming.runtime.tasks.StreamTaskException: Cannot instantiate user function. at

Re:退订

2020-12-01 文章 hailongwang
Hi, 退订需发邮件到 user-zh-unsubscr...@flink.apache.org 更多详细情况可以参考[1] [1] https://flink.apache.org/community.html#mailing-lists Best, Hailong 在 2020-12-02 10:32:02,"541122...@qq.com" <541122...@qq.com> 写道: >退订 > > > >541122...@qq.com

Re:退订

2020-12-01 文章 hailongwang
Hi, 退订需发邮件到 user-zh-unsubscr...@flink.apache.org 更多详细情况可以参考[1] [1] https://flink.apache.org/community.html#mailing-lists Best, Hailong At 2020-12-02 10:23:08, "程明" wrote: >

退订

2020-12-01 文章 541122...@qq.com
退订 541122...@qq.com

退订

2020-12-01 文章 程明

Re:Re:大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?

2020-12-01 文章 18293503878
好的,十分感谢 在 2020-12-01 23:35:05,"hailongwang" <18868816...@163.com> 写道: >Hi, > Collect 函数返回 Multiset 类型 ,可以使用 Map 试试 > > >Best, >Hailong > >在 2020-12-01 18:03:15,"chegg_work" 写道: >>大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?

Re: 【Flink SQL】无法启动 env.yaml

2020-12-01 文章 李轲
谢谢,了解了 发自我的iPhone > 在 2020年12月1日,23:31,Leonard Xu 写道: > > Hi, 李轲 > > 这是因为yml只支持1.10之前老的connector,写法是connector.type=‘filesystem’, > 1.11之后的新connector都是 connetor=‘filesystem’, 除了简化了写法外,前者的工厂方法和后者的也不一样, > 所以通过yml定义的新的connector是不能被老的工厂 SPI > 发现的。而在yml中定义表从1.11开始就是不推荐了,因为已经支持了用DDL这种纯SQL的方式定义表。

Re:使用flink-sql解析debezium采集的mysql timestamp字段报错

2020-12-01 文章 hailongwang
Hi, 引用 Jark 对邮件列表中另一个相关的问题的回答,详情可查看[1]。 希望对你有帮助。 [1] http://apache-flink.147419.n8.nabble.com/flink-sql-td8884.html#a Best, Hailong 在 2020-12-01 10:09:21,"王羽凡" 写道: >flink-sql-client执行建表: > >CREATE TABLE source_xxx ( > id INT, > ctime TIMESTAMP >) WITH ( > 'connector' = 'kafka', >

Re:大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?

2020-12-01 文章 hailongwang
Hi, Collect 函数返回 Multiset 类型 ,可以使用 Map 试试 Best, Hailong 在 2020-12-01 18:03:15,"chegg_work" 写道: >大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?

Re: 【Flink SQL】无法启动 env.yaml

2020-12-01 文章 Leonard Xu
Hi, 李轲 这是因为yml只支持1.10之前老的connector,写法是connector.type=‘filesystem’, 1.11之后的新connector都是 connetor=‘filesystem’, 除了简化了写法外,前者的工厂方法和后者的也不一样, 所以通过yml定义的新的connector是不能被老的工厂 SPI 发现的。而在yml中定义表从1.11开始就是不推荐了,因为已经支持了用DDL这种纯SQL的方式定义表。 推荐你可以拉起sql-client后,用DDL的方式建表 祝好 Leonard > 在 2020年12月1日,21:43,李轲 写道:

Re:Flinksql通过phoenix查询维表,报Caused by: org.apache.calcite.avatica.NoSuchStatementException

2020-12-01 文章 hailongwang
Hi, 从你的堆栈看,你自定义的 “com.custom.jdbc.table.JdbcRowDataLookupFunction” 函数引用的 PreparedStatement 包不对。 具体实现可以参考:https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-jdbc/src/main/java/org/apache/flink/connector/jdbc/table/JdbcRowDataLookupFunction.java 我理解如果 phoenix 支持标准的

Re:修改topic名称后从Savepoint重启会怎么消费Kafka

2020-12-01 文章 熊云昆
可以手动控制的,如果不设置默认是从最新位置开始消费,否则按照你的startup-mode来 在 2020-12-01 20:59:48,"Shuai Xia" 写道: > >Hi,大佬们 >突然有一个疑问点,Flink消费kafka的Job保存了SP之后停止,修改代码中的topic名称之后重启。 >会从新topic的哪里开始消费?与startup-mode一致,还是从最新呢? >可以手动控制么?

【Flink SQL】无法启动 env.yaml

2020-12-01 文章 李轲
在服务器上试用sql-client时,启动指令如下: ./sql-client.sh embedded -l /root/flink-sql-client/libs/ -d /data_gas/flink/flink-1.11.2/conf/sql-client-defaults.yaml -e /root/flink-sql-client/sql-client-demo.yml 配置如下: # 定义表 tables: - name: SourceTable type: source-table update-mode: append

修改topic名称后从Savepoint重启会怎么消费Kafka

2020-12-01 文章 Shuai Xia
Hi,大佬们 突然有一个疑问点,Flink消费kafka的Job保存了SP之后停止,修改代码中的topic名称之后重启。 会从新topic的哪里开始消费?与startup-mode一致,还是从最新呢? 可以手动控制么?

Re: zookeeper更换leader对flink的影响

2020-12-01 文章 Yang Wang
Flink是利用Curator Framework来进行Leader Election和Retrieval,当时Curator的State 变成Suspended或者Lost的时候都会触发leader的revoke,进而导致需要Cancel掉之前的job 等待新的leader出现再重新调度 你可以提供一下JobManager的log或者自己观察一下JobManager的log是不是有Curator Connection State的变化 进而导致了Failover Best, Yang 赵一旦 于2020年12月1日周二 下午7:13写道: >

Re: zookeeper更换leader对flink的影响

2020-12-01 文章 赵一旦
又石沉大海了,有没有懂的人出来解释下。 RS 于2020年11月17日周二 上午9:35写道: > 哈哈, 我的也是, flink和ZK断开连接的话, 任务会全部重启, 这边测试了各种场景, 比如部署HA方案, > 部署多个jobmanager都测试过, 任务都是会重启的, 同样不知道如何解决. > > > > > > > > > > > > > > > > > > 在 2020-11-16 18:39:29,"赵一旦" 写道: > >

大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?

2020-12-01 文章 chegg_work
大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?

Flinksql????phoenix????????????Caused by: org.apache.calcite.avatica.NoSuchStatementException

2020-12-01 文章 hoose
flinksqlkafka, connector phoenix 2020-11-24 00:52:38,534 ERROR com.custom.jdbc.table.JdbcRowDataLookupFunction[] - JDBC executeBatch error, retry times = 2 java.sql.SQLException: null at

使用sql-client中遇到的一点问题

2020-12-01 文章 李轲
在服务器上试用sql-client时,启动指令如下: ./sql-client.sh embedded -d /root/flink-sql-client/sql-client-demo.yml 配置见附件,读取的文件也在附件中 遇到了如下报错: Reading default environment from: file:/root/flink-sql-client/sql-client-demo.yml No session environment specified. Exception in thread "main"