Re: flink1.9 blink planner table ddl 使用问题

2019-08-27 文章 徐骁
-08-26 14:26:15,"hb" <343122...@163.com> 写道: > >>> kafka版本是 kafka_2.11-1.1.0, > >>> 支持的kafka版本有哪些 > >>> 在 2019-08-26 14:23:19,"pengcheng...@bonc.com.cn" < > >> pengcheng...@bonc.com.cn> 写道: > >>>> 检查一下代码的ka

Re: flink1.9 blink planner table ddl 使用问题

2019-08-27 文章 Jark Wu
的kafka版本有哪些 >>> 在 2019-08-26 14:23:19,"pengcheng...@bonc.com.cn" < >> pengcheng...@bonc.com.cn> 写道: >>>> 检查一下代码的kafka版本,可能是这方面的错误 >>>> >>>> >>>> >>>> pengcheng...@bonc.com.cn >>>

Re: Re:回复: Re: flink1.9 blink planner table ddl 使用问题

2019-08-27 文章 徐骁
-1.1.0, > >支持的kafka版本有哪些 > >在 2019-08-26 14:23:19,"pengcheng...@bonc.com.cn" < > pengcheng...@bonc.com.cn> 写道: > >>检查一下代码的kafka版本,可能是这方面的错误 > >> > >> > >> > >>pengcheng...@bonc.com.cn > >> > >>发件人: hb >

Re:Re:回复: Re: flink1.9 blink planner table ddl 使用问题

2019-08-26 文章 hb
;检查一下代码的kafka版本,可能是这方面的错误 >> >> >> >>pengcheng...@bonc.com.cn >> >>发件人: hb >>发送时间: 2019-08-26 15:14 >>收件人: user-zh >>主题: Re:Re: flink1.9 blink planner table ddl 使用问题 >>之前少了 flink-connector-kafka_2.11 依赖, >>现在错误变成 Caused by: java.lang.NoSu

Re:回复: Re: flink1.9 blink planner table ddl 使用问题

2019-08-26 文章 hb
kafka版本是 kafka_2.11-1.1.0, 支持的kafka版本有哪些 在 2019-08-26 14:23:19,"pengcheng...@bonc.com.cn" 写道: >检查一下代码的kafka版本,可能是这方面的错误 > > > >pengcheng...@bonc.com.cn > >发件人: hb >发送时间: 2019-08-26 15:14 >收件人: user-zh >主题: Re:Re: flink1.9 blink planner table ddl 使用问题 >

回复: Re: flink1.9 blink planner table ddl 使用问题

2019-08-26 文章 pengcheng...@bonc.com.cn
检查一下代码的kafka版本,可能是这方面的错误 pengcheng...@bonc.com.cn 发件人: hb 发送时间: 2019-08-26 15:14 收件人: user-zh 主题: Re:Re: flink1.9 blink planner table ddl 使用问题 之前少了 flink-connector-kafka_2.11 依赖, 现在错误变成 Caused by: java.lang.NoSuchMethodError

Re:Re: flink1.9 blink planner table ddl 使用问题

2019-08-26 文章 hb
之前少了 flink-connector-kafka_2.11 依赖, 现在错误变成 Caused by: java.lang.NoSuchMethodError: org.apache.flink.streaming.connectors.kafka.internal.KafkaConsumerThread.(Lorg/slf4j/Logger;Lorg/apache/flink/streaming/connectors/kafka/internal/Handover;Ljava/util/Properties;Lorg/apache/flink/streaming/connector

Re: flink1.9 blink planner table ddl 使用问题

2019-08-25 文章 Jark Wu
Maven 需要同时依赖 flink-json 和 flink-connector-kafka_2.11 Best, Jark > 在 2019年8月26日,13:57,hb <343122...@163.com> 写道: > > 使用了你的ddl语句,还是报一样的错误. > 我是在idea里面执行的,maven 配置的依赖. > > 在 2019-08-26 11:22:20,"Jark Wu" 写道: >> Hi, >> >> 初步看下来你的 DDL 中有这几部分定义的有问题。 >> >> 1. 缺少format properties >> 2. 缺少 connector.

Re:Re: flink1.9 blink planner table ddl 使用问题

2019-08-25 文章 hb
使用了你的ddl语句,还是报一样的错误. 我是在idea里面执行的,maven 配置的依赖. 在 2019-08-26 11:22:20,"Jark Wu" 写道: >Hi, > >初步看下来你的 DDL 中有这几部分定义的有问题。 > >1. 缺少format properties >2. 缺少 connector.version >3. bootstrap.severs 的配置方式写的不对... > > >你可以参考下面这个作为example: > > >CREATE TABLE kafka_json_source ( >rowtime TIMESTAMP, >use

Re: flink1.9 blink planner table ddl 使用问题

2019-08-25 文章 Jark Wu
Hi, 初步看下来你的 DDL 中有这几部分定义的有问题。 1. 缺少format properties 2. 缺少 connector.version 3. bootstrap.severs 的配置方式写的不对... 你可以参考下面这个作为example: CREATE TABLE kafka_json_source ( rowtime TIMESTAMP, user_name VARCHAR, event ROW ) WITH ( 'connector.type' = 'kafka', 'connector.version' = 'un

flink1.9 blink planner table ddl 使用问题

2019-08-25 文章 hb
flink1.9 blink planner table 使用ddl 语句,创建表不成功,不知道是少了 定义属性还是 需要实现TableSourceFactory,还是其他什么. 提示: Exception in thread "main" org.apache.flink.table.api.ValidationException: SQL validation failed. findAndCreateTableSource failed. Caused by: org.apache.flink.table.api.NoMatchingTableFactoryExcept