应该出现问题的之前任务都重启了下?
感觉是类加载顺序的问题,因为从栈看,正确的栈应该会出现 `PhoenixPreparedStatement`,但是却是
`AvaticaPreparedStatement `,说明是先加载到了 Avatica 下面的类。
1. 可以在启动的 tm 的 jvm 中加一个 `-verbose` 看下每次重启类是从哪个包加载出来的,是否符合预期,
2. 可以在 lookupfunction 里面直接使用 PhoenixPreparedStatement 类,而不是 `PreparedStatement`
接口,看能不能绕过。
Best ,
遇到的问题如下, flink版本1.11.1,sql client 中使用flink sql
sql语句如下:
CREATE TABLE sls_log_sz_itsp (
request STRING,
http_bundleId STRING,
upstream_addr STRING,
http_appid STRING,
bodyUserId STRING,
http_sequence STRING,
http_version STRING,
response_body STRING,
uri STRING,
bytes_sent STRING,
http_userId
遇到的问题如下, flink版本1.11.1,sql client 中使用flink sql
sql语句如下:
CREATE TABLE sls_log_sz_itsp (
request STRING,
http_bundleId STRING,
upstream_addr STRING,
http_appid STRING,
bodyUserId STRING,
http_sequence STRING,
http_version STRING,
response_body STRING,
uri STRING,
bytes_sent
遇到的问题如下, flink版本1.11.1,sql client 中使用flink sql
sql语句如下:
CREATE TABLE sls_log_sz_itsp (
request STRING,
http_bundleId STRING,
upstream_addr STRING,
http_appid STRING,
bodyUserId STRING,
http_sequence STRING,
http_version STRING,
response_body STRING,
uri STRING,
bytes_sent
hi,实时上并不是你说的这样,从sp重启时因为存在RestoreState,而且Topic名称被修改,会导致restoredState内找不到新的KafkaTopicPartition
新的消费位置会置为EARLIEST_OFFSET
if (restoredState != null) {
for (KafkaTopicPartition partition : allPartitions) {
if (!restoredState.containsKey(partition)) {
restoredState.put(partition,
??
connectorjdbc
??
statement.clearParameters();
statement = lookupKeyRowConverter.toExternal(keyRow, statement);
try (ResultSet resultSet =
When I submitted a flink-table-sql job to yarn, the following exception came
out. Wondering how to solve it. Anyone can help me with that? Appreciate
it
org.apache.flink.streaming.runtime.tasks.StreamTaskException: Cannot
instantiate user function.
at
When I submitted a flink-table-sql job to yarn, the following exception came
out. Wondering how to solve it. Anyone can help me with that? Appreciate
it
org.apache.flink.streaming.runtime.tasks.StreamTaskException: Cannot
instantiate user function.
at
Hi,
退订需发邮件到 user-zh-unsubscr...@flink.apache.org 更多详细情况可以参考[1]
[1] https://flink.apache.org/community.html#mailing-lists
Best,
Hailong
在 2020-12-02 10:32:02,"541122...@qq.com" <541122...@qq.com> 写道:
>退订
>
>
>
>541122...@qq.com
Hi,
退订需发邮件到 user-zh-unsubscr...@flink.apache.org 更多详细情况可以参考[1]
[1] https://flink.apache.org/community.html#mailing-lists
Best,
Hailong
At 2020-12-02 10:23:08, "程明" wrote:
>
退订
541122...@qq.com
好的,十分感谢
在 2020-12-01 23:35:05,"hailongwang" <18868816...@163.com> 写道:
>Hi,
> Collect 函数返回 Multiset 类型 ,可以使用 Map 试试
>
>
>Best,
>Hailong
>
>在 2020-12-01 18:03:15,"chegg_work" 写道:
>>大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?
谢谢,了解了
发自我的iPhone
> 在 2020年12月1日,23:31,Leonard Xu 写道:
>
> Hi, 李轲
>
> 这是因为yml只支持1.10之前老的connector,写法是connector.type=‘filesystem’,
> 1.11之后的新connector都是 connetor=‘filesystem’, 除了简化了写法外,前者的工厂方法和后者的也不一样,
> 所以通过yml定义的新的connector是不能被老的工厂 SPI
> 发现的。而在yml中定义表从1.11开始就是不推荐了,因为已经支持了用DDL这种纯SQL的方式定义表。
Hi,
引用 Jark 对邮件列表中另一个相关的问题的回答,详情可查看[1]。
希望对你有帮助。
[1] http://apache-flink.147419.n8.nabble.com/flink-sql-td8884.html#a
Best,
Hailong
在 2020-12-01 10:09:21,"王羽凡" 写道:
>flink-sql-client执行建表:
>
>CREATE TABLE source_xxx (
> id INT,
> ctime TIMESTAMP
>) WITH (
> 'connector' = 'kafka',
>
Hi,
Collect 函数返回 Multiset 类型 ,可以使用 Map 试试
Best,
Hailong
在 2020-12-01 18:03:15,"chegg_work" 写道:
>大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?
Hi, 李轲
这是因为yml只支持1.10之前老的connector,写法是connector.type=‘filesystem’, 1.11之后的新connector都是
connetor=‘filesystem’, 除了简化了写法外,前者的工厂方法和后者的也不一样, 所以通过yml定义的新的connector是不能被老的工厂
SPI 发现的。而在yml中定义表从1.11开始就是不推荐了,因为已经支持了用DDL这种纯SQL的方式定义表。
推荐你可以拉起sql-client后,用DDL的方式建表
祝好
Leonard
> 在 2020年12月1日,21:43,李轲 写道:
Hi,
从你的堆栈看,你自定义的 “com.custom.jdbc.table.JdbcRowDataLookupFunction” 函数引用的
PreparedStatement 包不对。
具体实现可以参考:https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-jdbc/src/main/java/org/apache/flink/connector/jdbc/table/JdbcRowDataLookupFunction.java
我理解如果 phoenix 支持标准的
可以手动控制的,如果不设置默认是从最新位置开始消费,否则按照你的startup-mode来
在 2020-12-01 20:59:48,"Shuai Xia" 写道:
>
>Hi,大佬们
>突然有一个疑问点,Flink消费kafka的Job保存了SP之后停止,修改代码中的topic名称之后重启。
>会从新topic的哪里开始消费?与startup-mode一致,还是从最新呢?
>可以手动控制么?
在服务器上试用sql-client时,启动指令如下:
./sql-client.sh embedded -l /root/flink-sql-client/libs/ -d
/data_gas/flink/flink-1.11.2/conf/sql-client-defaults.yaml -e
/root/flink-sql-client/sql-client-demo.yml
配置如下:
# 定义表
tables:
- name: SourceTable
type: source-table
update-mode: append
Hi,大佬们
突然有一个疑问点,Flink消费kafka的Job保存了SP之后停止,修改代码中的topic名称之后重启。
会从新topic的哪里开始消费?与startup-mode一致,还是从最新呢?
可以手动控制么?
Flink是利用Curator Framework来进行Leader Election和Retrieval,当时Curator的State
变成Suspended或者Lost的时候都会触发leader的revoke,进而导致需要Cancel掉之前的job
等待新的leader出现再重新调度
你可以提供一下JobManager的log或者自己观察一下JobManager的log是不是有Curator Connection State的变化
进而导致了Failover
Best,
Yang
赵一旦 于2020年12月1日周二 下午7:13写道:
>
又石沉大海了,有没有懂的人出来解释下。
RS 于2020年11月17日周二 上午9:35写道:
> 哈哈, 我的也是, flink和ZK断开连接的话, 任务会全部重启, 这边测试了各种场景, 比如部署HA方案,
> 部署多个jobmanager都测试过, 任务都是会重启的, 同样不知道如何解决.
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
> 在 2020-11-16 18:39:29,"赵一旦" 写道:
>
>
大家有用Flink SQL中的collect函数执行的结果用DataStream后,用什么数据类型匹配该字段的结果,数据类型的类名和需要的依赖是什么?
flinksqlkafka, connector phoenix
2020-11-24 00:52:38,534 ERROR
com.custom.jdbc.table.JdbcRowDataLookupFunction[] - JDBC executeBatch
error, retry times = 2
java.sql.SQLException: null
at
在服务器上试用sql-client时,启动指令如下:
./sql-client.sh embedded -d /root/flink-sql-client/sql-client-demo.yml
配置见附件,读取的文件也在附件中
遇到了如下报错:
Reading default environment from:
file:/root/flink-sql-client/sql-client-demo.yml
No session environment specified.
Exception in thread "main"
26 matches
Mail list logo