Re:Re: ​请问是否有计划合并blink gemini到flink的计划

2022-07-13 文章 蔡荣
谢谢回复 在 2022-07-13 19:14:02,"Yuan Mei" 写道: >目前Gemini只用在 ververica platform 中作为 aliyun 商业化版本的 default statebackend >使用,短期还是会以提升 Gemini 更方面性能为主,后续会逐步将主要部分开源的。 > >Best >Yuan > >On Wed, Jul 13, 2022 at 6:10 PM Hangxiang Yu wrote: > >> >>

Re:Re: ​请问是否有计划合并blink gemini到flink的计划

2022-07-13 文章 mack143
退订 在 2022-07-13 19:14:02,"Yuan Mei" 写道: >目前Gemini只用在 ververica platform 中作为 aliyun 商业化版本的 default statebackend >使用,短期还是会以提升 Gemini 更方面性能为主,后续会逐步将主要部分开源的。 > >Best >Yuan > >On Wed, Jul 13, 2022 at 6:10 PM Hangxiang Yu wrote: > >> >> 你好,是从阿里云产品的Blink迁移到

Re: ​请问是否有计划合并blink gemini到flink的计划

2022-07-13 文章 Yuan Mei
目前Gemini只用在 ververica platform 中作为 aliyun 商业化版本的 default statebackend 使用,短期还是会以提升 Gemini 更方面性能为主,后续会逐步将主要部分开源的。 Best Yuan On Wed, Jul 13, 2022 at 6:10 PM Hangxiang Yu wrote: > > 你好,是从阿里云产品的Blink迁移到Flink吗?这个迁移过程可以参考[1],Gemini在“实时计算Flink版”中的介绍和使用方式可以参考[2][3]。 > 关于合并到社区,短期内没有相关计划。 >

Re: ​请问是否有计划合并blink gemini到flink的计划

2022-07-13 文章 Hangxiang Yu
你好,是从阿里云产品的Blink迁移到Flink吗?这个迁移过程可以参考[1],Gemini在“实时计算Flink版”中的介绍和使用方式可以参考[2][3]。 关于合并到社区,短期内没有相关计划。 [1] https://help.aliyun.com/document_detail/421043.html [2] https://help.aliyun.com/document_detail/414255.html [3] https://help.aliyun.com/document_detail/414256.html Best, Hangxiang. On Wed, Jul

​请问是否有计划合并blink gemini到flink的计划

2022-07-13 文章 蔡荣
看到一篇文章《数据处理能力相差 2.4 倍?Flink 使用 RocksDB 和 Gemini 的性能对比实验》, https://developer.aliyun.com/article/770793, 请问是否有计划合并gemini到flink的计划?

Flink 1.12 Blink planner timestamp类型转换异常

2022-01-11 文章 张健
Hi, all flink1.12 Blink planner有人遇到过这样的问题么: 下面是简化的逻辑 DataStream ds = .map(xxxRichMapFunction); Table table = tableEnv.fromDataStream(ds); tableEnv.toAppendStream(table.select(xxx).keyBy(xxx), Row.class).addSink(xxxRichSinkFunction); xxxRichMapFunction中对某个字段写了row.setField(index

Flink 1.12 Blink planner timestamp类型转换异常

2022-01-11 文章 张健
Hi, all flink1.12 Blink planner有人遇到过这样的问题么: 下面是简化的逻辑 DataStream ds = .map(xxxRichMapFunction); Table table = tableEnv.fromDataStream(ds); tableEnv.toAppendStream(table.select(xxx).keyBy(xxx), Row.class).addSink(xxxRichSinkFunction); xxxRichMapFunction中对某个字段写了row.setField(index

Flink 1.12 Blink planner timestamp类型转换异常

2022-01-11 文章 张健
Hi, all flink1.12 Blink planner有人遇到过这样的问题么: 下面是简化的逻辑 DataStream ds = .map(xxxRichMapFunction); Table table = tableEnv.fromDataStream(ds); tableEnv.toAppendStream(table.select(xxx).keyBy(xxx), Row.class).addSink(xxxRichSinkFunction); xxxRichMapFunction中对某个字段写了row.setField(index

关于Flink 非blink planer下自持listagg

2021-04-21 文章 张海深
你好,请问Flink 是否支持非blink planer下的 listagg,有计划支持吗。现阶段如果想使用listagg,请问有什么好的方法支持吗

blink planner里的Scala代码,未来会由Java改写吗?

2021-04-01 文章 Luna Wong
目前blink planner中有大量Scala代码,Scala在这方面写起来确实简单不少。未来不需要用Java重写是吗?

Re: Blink Planner构造Remote Env

2020-12-17 文章 莫失莫忘
我现在也碰到了这个问题,也是删除了方法中检查模式的代码 settings.isStreamingMode()。源码为什么要加这样一个检测呢? 感觉 StreamTableEnvironmentImpl 原来是能跑批的,现在加上这个检测 反而不能了。我看最新版的 1.12 还有这个检测代码呢 -- Sent from: http://apache-flink.147419.n8.nabble.com/

flink??????planner??blink??????????????????cep sql??a->b

2020-12-08 文章 ??????
flink cep sql blinkPATTERN (e1{3 } - e2{1 }?)??

java.lang.IncompatibleClassChangeError: Implementing class (using blink-planner)

2020-11-16 文章 norman
.trigger'='partition-time', | 'sink.partition-commit.delay'='1 h', | 'sink.partition-commit.policy.kind'='metastore,success-file' |); |""".stripMargin) build.sbt is following: "org.apache.flink" %% "flink-table-planner-blink"

Re: flink 1.11.2 如何获取blink计划下的BatchTableEnvironment对象

2020-11-15 文章 Danny Chan
-- > 发件人: > "user-zh" > < > danny0...@apache.org; > 发送时间:2020年11月10日(星期二) 下午2:43 > 收件人:"user-zh" > 主题:Re: flink 1.11.2 如何获取blink计划下的Ba

Blink 1.11 create view是不是没有办法把rowtime带下去?

2020-11-15 文章 周虓岗
通过table api的// declare an additional logical field as an event time attribute Tabletable=tEnv.fromDataStream(stream,$("user_name"),$("data"),$("user_action_time").rowtime()"); 可以把eventtime往后传, 如果使用createview的话怎么把这个time attribute往后带吗? 不往后传的话可能会 这个有什么方法吗?

?????? flink 1.11.2 ????????blink????????BatchTableEnvironment????

2020-11-13 文章 Asahi Lee
BatchTableEnvironmenttable to dataset; dataset to table ---- ??: "user-zh"

Re: flink 1.11.2 如何获取blink计划下的BatchTableEnvironment对象

2020-11-09 文章 Danny Chan
"user-zh" > < > danny0...@apache.org; > 发送时间:2020年11月9日(星期一) 中午12:34 > 收件人:"user-zh" > 主题:Re: flink 1.11.2 如何获取blink计划下的BatchTableEnvironment对象 > > > > > BatchTableEnvironment

?????? flink 1.11.2 ????????blink????????BatchTableEnvironment????

2020-11-09 文章 Asahi Lee
??BatchTableEnvironment ---- ??: "user-zh"

Re: flink 1.11.2 如何获取blink计划下的BatchTableEnvironment对象

2020-11-08 文章 Danny Chan
> > BatchTableEnvironment 环境 是说 BatchTableEnvironment 对象吗 Asahi Lee <978466...@qq.com> 于2020年11月9日周一 上午10:48写道: > 你好! >我使用的是flink 1.11.2版本,官网的文档中说明blink的batch执行环境以如下方式获取: > // ** // BLINK BATCH QUERY //

flink 1.11.2 ????????blink????????BatchTableEnvironment????

2020-11-08 文章 Asahi Lee
?? ??flink 1.11.2??blink??batch // ** // BLINK BATCH QUERY // ** import org.apache.flink.table.api.EnvironmentSettings; import org.apache.flink.table.api.TableEnvironment; EnvironmentSettings bbSettings

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-26 文章 Tianwang Li
有发生超用内存,然后container 被YARN >> > KILL 。 >> > 单流跑的话,比较正常。 >> > JOB的内存是4G。版本1.11.1 >> > -- >> > 发件人:Benchao Li >> > 发送时间:2020年9月23日(星期三) 10:50 >> > 收件人:user-zh >> > 主 题:Re: [flink-1.10.2] Blink SQL 超用内存严重 >> > >> > Hi Tianwa

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-23 文章 Tianwang Li
> > 发件人:Benchao Li > > 发送时间:2020年9月23日(星期三) 10:50 > > 收件人:user-zh > > 主 题:Re: [flink-1.10.2] Blink SQL 超用内存严重 > > > > Hi Tianwang, > > > > 不知道你的DataStream是怎么实现的,只是从SQL的角度来看,有两个地方会导致状态的量会增加 > > > > 1. time interval

回复:[flink-1.10.2] Blink SQL 超用内存严重

2020-09-23 文章 郑斌斌
谢谢Peidian ,我试一下 -- 发件人:Peidian Li 发送时间:2020年9月23日(星期三) 14:02 收件人:user-zh ; 郑斌斌 主 题:Re: [flink-1.10.2] Blink SQL 超用内存严重 我也遇到过类似的问题,也是使用rocksdb,flink 1.10版本,我理解的是block cache超用,我这边的解决办法是增大了taskmanager.memory.jvm-overhead.fraction,如

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-23 文章 Peidian Li
.flink.yarn.YarnResourceManager.lambda$onContainersCompleted$0(YarnResourceManager.java:385) > at > org.apache.flink.runtime.rpc.akka.AkkaRpcActor.handleRunAsync(AkkaRpcActor.java:402) > -- > 发件人:Benchao Li > 发送时间:2020年

回复:[flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 郑斌斌
va:402) -- 发件人:Benchao Li 发送时间:2020年9月23日(星期三) 13:12 收件人:user-zh ; 郑斌斌 主 题:Re: [flink-1.10.2] Blink SQL 超用内存严重 超yarn内存不合理。因为state如果用的是heap,那应该是堆内内存,不会超过配置的JVM的最大heap的内存的, 只会jvm oom。超过yarn内存限制,那是因为还有jvm其他的overhead,加起来总量超了。 郑斌斌 于2020年9月23日周三 下

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Benchao Li
是4G。版本1.11.1 > -- > 发件人:Benchao Li > 发送时间:2020年9月23日(星期三) 10:50 > 收件人:user-zh > 主 题:Re: [flink-1.10.2] Blink SQL 超用内存严重 > > Hi Tianwang, > > 不知道你的DataStream是怎么实现的,只是从SQL的角度来看,有两个地方会导致状态的量会增加 > > 1. time interval join会将watermark delay之后再发送,也

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Tianwang Li
希望这个可以解答你的疑惑~ > > [1] https://issues.apache.org/jira/browse/FLINK-18996 > > Tianwang Li 于2020年9月22日周二 下午8:26写道: > > > 使用 Blink SQL 实现 interval join + hop window 超用内存比较严重。 > > > > > > 【join】 > > > > > SELECT `b`.`rowtime`, > > > `a`.`c

回复:[flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 郑斌斌
我这边也是遇到同样的问题,简单的双流 interval join SQL 跑4-5天就会有发生超用内存,然后container 被YARN KILL 。 单流跑的话,比较正常。 JOB的内存是4G。版本1.11.1 -- 发件人:Benchao Li 发送时间:2020年9月23日(星期三) 10:50 收件人:user-zh 主 题:Re: [flink-1.10.2] Blink SQL 超用内存严重 Hi Tianwang, 不知道你的

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Benchao Li
://issues.apache.org/jira/browse/FLINK-18996 Tianwang Li 于2020年9月22日周二 下午8:26写道: > 使用 Blink SQL 实现 interval join + hop window 超用内存比较严重。 > > > 【join】 > > > SELECT `b`.`rowtime`, > > `a`.`c_id`, > > `b`.`openid` > > FROM `test_table_a` AS `a` > > IN

[flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Tianwang Li
使用 Blink SQL 实现 interval join + hop window 超用内存比较严重。 【join】 > SELECT `b`.`rowtime`, > `a`.`c_id`, > `b`.`openid` > FROM `test_table_a` AS `a` > INNER JOIN `test_table_b` AS `b` ON `a`.`RoomID` = `b`.`RoomID` > AND `a`.`openid` = `b`.`openid` > AND `b`.`rowtime` BETWEEN AS

Re: 多线程模式下使用Blink TableEnvironment

2020-09-18 文章 Jeff Zhang
Hi jun su, 如果是自建平台的话,可以考虑用zeppelin的sdk 来提交作业 https://www.yuque.com/jeffzhangjianfeng/gldg8w/pz2xoh jun su 于2020年9月18日周五 上午10:59写道: > hi godfrey, > > 我们的用法类似zeppelin, 项目形式类似notebook, 在第一次运行笔记时创建env, > 再次运行notebook时会创建新线程来构建job运行, 所以我参考了zepplin的做法暂时fix了这个问题 > > godfrey he 于2020年9月17日周四

Re: 多线程模式下使用Blink TableEnvironment

2020-09-17 文章 jun su
hi godfrey, 我们的用法类似zeppelin, 项目形式类似notebook, 在第一次运行笔记时创建env, 再次运行notebook时会创建新线程来构建job运行, 所以我参考了zepplin的做法暂时fix了这个问题 godfrey he 于2020年9月17日周四 下午10:07写道: > TableEnvironment 不是多线程安全的。 > > btw, 你能描述一下你在多线程情况下怎么使用 TableEnvironment 的吗? > > Jeff Zhang 于2020年9月14日周一 下午12:10写道: > > >

Re: 多线程模式下使用Blink TableEnvironment

2020-09-17 文章 godfrey he
TableEnvironment 不是多线程安全的。 btw, 你能描述一下你在多线程情况下怎么使用 TableEnvironment 的吗? Jeff Zhang 于2020年9月14日周一 下午12:10写道: > 参考zeppelin的做法,每个线程里都调用这个 > > > https://github.com/apache/zeppelin/blob/master/flink/interpreter/src/main/java/org/apache/zeppelin/flink/FlinkSqlInterrpeter.java#L111 > > > jun su

Re: 多线程模式下使用Blink TableEnvironment

2020-09-13 文章 Jeff Zhang
参考zeppelin的做法,每个线程里都调用这个 https://github.com/apache/zeppelin/blob/master/flink/interpreter/src/main/java/org/apache/zeppelin/flink/FlinkSqlInterrpeter.java#L111 jun su 于2020年9月14日周一 上午11:54写道: > hi all, > > 多线程模式下执行sql , 在非聚合sql时报了如下错误: > > Caused by: java.lang.NullPointerException > at

多线程模式下使用Blink TableEnvironment

2020-09-13 文章 jun su
hi all, 多线程模式下执行sql , 在非聚合sql时报了如下错误: Caused by: java.lang.NullPointerException at java.util.Objects.requireNonNull(Objects.java:203) at org.apache.calcite.rel.metadata.RelMetadataQuery.(RelMetadataQuery.java:141) at

Re: Blink的Batch模式的并行度问题

2020-07-27 文章 jun su
; [1] > > https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/config.html#table-exec-resource-default-parallelism > > jun su 于2020年7月27日周一 下午3:50写道: > > > hi all, > > > > Flink 目前的blink table planner batch mode > > (读hdfs上的orc文件)只支持StreamTableSource

Re: Blink的Batch模式的并行度问题

2020-07-27 文章 Caizhi Weng
Hi, 可以配置 table.exec.resource.default-parallelism 为需要的并发。详见文档[1] [1] https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/config.html#table-exec-resource-default-parallelism jun su 于2020年7月27日周一 下午3:50写道: > hi all, > > Flink 目前的blink table planner batch mode > (读h

Blink的Batch模式的并行度问题

2020-07-27 文章 jun su
hi all, Flink 目前的blink table planner batch mode (读hdfs上的orc文件)只支持StreamTableSource和LookupableTableSource, 但是StreamTableSource的并行度默认应该是1 , 底层是ContinuousFileMonitoringFunction , 那么如何能扩大并行度来优化性能呢? -- Best, Jun Su

Re: Blink Planner构造Remote Env

2020-07-27 文章 jun su
tantiationUtil.java:511) > at org.apache.flink.streaming.api.graph.StreamConfig > .getStreamOperatorFactory(StreamConfig.java:276) > ... 6 more > > > Jark Wu 于2020年5月20日周三 下午2:30写道: > >> Hi, >> >> 因为 Blink planner >> 不支持 or

Re: Blink Planner构造Remote Env

2020-07-27 文章 jun su
) at org.apache.flink.streaming.api.graph.StreamConfig .getStreamOperatorFactory(StreamConfig.java:276) ... 6 more Jark Wu 于2020年5月20日周三 下午2:30写道: > Hi, > > 因为 Blink planner > 不支持 org.apache.flink.table.api.java.BatchTableEnvironment,所以无法对接 > ExecutionEnvironment。 > Blink planne

?????? Blink

2020-06-29 文章 ????
??17610775726?? "org.apache.flink" %% "flink-table-api-scala-bridge" % "1.10.1", "org.apache.flink" %% "flink-table-planner-blink" % "1.10.1" % "provided", "org.apac

Re: Blink

2020-06-29 文章 17610775726
使用row number设置成blink的planner就行了 依赖也只用加blink的 | | 17610775726 | | 邮箱:17610775...@163.com | Signature is customized by Netease Mail Master On 06/29/2020 17:19, xuhaiLong wrote: hello,请教下 "org.apache.flink" %% "flink-table-api-scala-bridge" % "1.10.1", &quo

Blink

2020-06-29 文章 xuhaiLong
hello,请教下 "org.apache.flink" %% "flink-table-api-scala-bridge" % "1.10.1", "org.apache.flink" %% "flink-table-planner-blink" % "1.10.1" % "provided", "org.apache.flink" % "flink-table" % &q

Re: Blink Planner构造Remote Env

2020-05-20 文章 Jark Wu
Hi, 因为 Blink planner 不支持 org.apache.flink.table.api.java.BatchTableEnvironment,所以无法对接 ExecutionEnvironment。 Blink planner 的 batch 模式,目前只支持 TableEnvironemnt,不过也可以通过 hack 的方式去使用 StreamTableEnvironment, 需要直接去构造 StreamTableEnvironmentImpl: StreamExecutionEnvironment execEnv

Blink Planner构造Remote Env

2020-05-19 文章 jun su
hi all, 过去在ide中想连接远程flink集群可以 ExecutionEnvironment.createRemoteEnvironment() 官网Blink构建方式是: val bbSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inBatchMode().build() val bbTableEnv = TableEnvironment.create(bbSettings) 请问如何连接远程集群呢? -- Best, Jun Su

Re: Re: flink1.9 Blink sql 丢失主键+去重和时态表联合使用吞吐量低

2020-05-10 文章 刘大龙
转换去Deduplication算子。 > -原始邮件- > 发件人: "宇张" > 发送时间: 2020-05-11 11:40:37 (星期一) > 收件人: user-zh@flink.apache.org > 抄送: > 主题: Re: flink1.9 Blink sql 丢失主键+去重和时态表联合使用吞吐量低 > > hi、 > 我这面state backend用的是FsStateBackend,状态保存在hdfs > > On Mon, May 11, 2020 at 11:19 A

Re: flink1.9 Blink sql 丢失主键+去重和时态表联合使用吞吐量低

2020-05-10 文章 宇张
hi、 我这面state backend用的是FsStateBackend,状态保存在hdfs On Mon, May 11, 2020 at 11:19 AM Benchao Li wrote: > Hi, > > 你用的是什么state backend呢?看你的情况很有可能跟这个有关系。比如用的是rocksdb,然后是普通磁盘的话,很容易遇到IO瓶颈。 > > 宇张 于2020年5月11日周一 上午11:14写道: > > > hi、 > > 我这面使用flink1.9的Blink sql完成数据转换操作,但遇到

Re: flink1.9 Blink sql 丢失主键+去重和时态表联合使用吞吐量低

2020-05-10 文章 Benchao Li
Hi, 你用的是什么state backend呢?看你的情况很有可能跟这个有关系。比如用的是rocksdb,然后是普通磁盘的话,很容易遇到IO瓶颈。 宇张 于2020年5月11日周一 上午11:14写道: > hi、 > 我这面使用flink1.9的Blink sql完成数据转换操作,但遇到如下问题: > 1、使用row_number函数丢失主键 > 2、row_number函数和时态表关联联合使用程序吞吐量严重降低,对应sql如下: > // 理论上这里面是不需要 distinct的,但sql中的主键blink提取不出来导致校验不通过,

flink1.9 Blink sql 丢失主键+去重和时态表联合使用吞吐量低

2020-05-10 文章 宇张
hi、 我这面使用flink1.9的Blink sql完成数据转换操作,但遇到如下问题: 1、使用row_number函数丢失主键 2、row_number函数和时态表关联联合使用程序吞吐量严重降低,对应sql如下: // 理论上这里面是不需要 distinct的,但sql中的主键blink提取不出来导致校验不通过,所以加了一个 SELECT distinct t1.id as order_id,...,DATE_FORMAT(t1.proctime,'-MM-dd HH:mm:ss') as etl_time FROM (select id,...,proctime from

Re: Blink模式下运用collect方法快速获取结果

2020-04-24 文章 jun su
: JArrayList[Array[Byte]] = res.getAccumulatorResult(id) > > SerializedListAccumulator.deserializeList(accResult, typeSerializer) > > } > > > > > > jun su 于2020年4月24日周五 下午2:05写道: > > > > > hi all, > > > > > > blink模式下没法将table 转为 dataset , 所以如果直接collect了, 请问有类似方法可以获取到 > > > 结果用于代码调试么? > > > > > > -- > > > Best, > > > Jun Su > > > > > > > > > -- > > Best, > > Jun Su > > > > > -- > Best, Jingsong Lee > -- Best, Jun Su

Re: Blink模式下运用collect方法快速获取结果

2020-04-24 文章 Jingsong Li
e) > > val res = tEnv.execute("test") > val accResult: JArrayList[Array[Byte]] = res.getAccumulatorResult(id) > SerializedListAccumulator.deserializeList(accResult, typeSerializer) > } > > > jun su 于2020年4月24日周五 下午2:05写道: > > > hi all, > > >

Re: Blink模式下运用collect方法快速获取结果

2020-04-24 文章 jun su
于2020年4月24日周五 下午2:05写道: > hi all, > > blink模式下没法将table 转为 dataset , 所以如果直接collect了, 请问有类似方法可以获取到 > 结果用于代码调试么? > > -- > Best, > Jun Su > -- Best, Jun Su

Blink模式下运用collect方法快速获取结果

2020-04-24 文章 jun su
hi all, blink模式下没法将table 转为 dataset , 所以如果直接collect了, 请问有类似方法可以获取到 结果用于代码调试么? -- Best, Jun Su

Re: 【反馈收集】在 1.11 版本中将 blink planner 作为默认的 planner

2020-04-03 文章 Kurt Young
问题 > --原始邮件-- > 发件人:"Kurt Young" 发送时间:2020年4月1日(星期三) 上午9:22 > 收件人:"user-zh" > 主题:【反馈收集】在 1.11 版本中将 blink planner 作为默认的 planner > > > > 大家好, > > 正如大家所知,Blink planner 是 Flink 1.9 版本中引入的一个全新的 Table API 和 SQL 的翻译优化 > 器,并且我们已经在 1.10 版

???????????????????? 1.11 ???????? blink planner ?????????? planner

2020-04-03 文章 1193216154
??blinkplanner??proctime??TimeStampLocalDateTime?? org.apache.flink.table.dataformat.DataFormatConverters??TimestampConverter ??

【反馈收集】在 1.11 版本中将 blink planner 作为默认的 planner

2020-03-31 文章 Kurt Young
大家好, 正如大家所知,Blink planner 是 Flink 1.9 版本中引入的一个全新的 Table API 和 SQL 的翻译优化 器,并且我们已经在 1.10 版本中将其作为 SQL CLI 的默认 planner。由于社区很早就已经决定不再 针对老的优化器去增添任何新的功能,所以从功能和性能上来说,老的 flink planner 已经缺了很多 现在社区最新的 SQL 相关的功能,比如新的类型系统,更多的DDL的支持,以及即将在 1.11 发布 的新的 TableSource 和 TableSink 接口和随之而来的对 Binlog 类日志的解析。 因此我们打算尝试在接

Re: 使用blink planner读取mysql数据

2020-03-23 文章 Jark Wu
,如: SELECT * from student WHERE score > 60 注:以上命令都可以在 Flink SQL CLI 中运行 [1]。 Best, Jark [1]: https://ci.apache.org/projects/flink/flink-docs-release-1.10/dev/table/sqlClient.html On Mon, 23 Mar 2020 at 16:30, 烟虫李彦卓 <1229766...@qq.com> wrote: > hi,All请问,在blink planner的batch mode下,读取m

????blink planner????mysql????

2020-03-23 文章 ??????????
hi??Allblink planner??batch modemysqlJDBC Connector CREATE TABLE MyUserTable ( ... ) WITH ( 'connector.type' = 'jdbc', -- required: specify this table type is jdbc 'connector.url' = 'jdbc:mysql://localhost:3306/flink-test', -- required: JDBC DB

Re: ParquetTableSource在blink table planner下的使用问题

2020-02-17 文章 jun su
workaround 可以将常量放到 selelct 中,比如 select a,b,'windows进程创建' from >>> MyTable where c = 'windows进程创建' >>> >>> Best, >>> Jark >>> >>> On Mon, 17 Feb 2020 at 15:15, jun su wrote: >>> >>>> 上一个问题补充, 在blink table planner下: &

Re: ParquetTableSource在blink table planner下的使用问题

2020-02-17 文章 Jark Wu
pache.org/jira/browse/FLINK-16113 >> >> 当前的 workaround 可以将常量放到 selelct 中,比如 select a,b,'windows进程创建' from MyTable >> where c = 'windows进程创建' >> >> Best, >> Jark >> >> On Mon, 17 Feb 2020 at 15:15, jun su wrote: >> >>> 上一个问题补充, 在bli

Re: ParquetTableSource在blink table planner下的使用问题

2020-02-17 文章 Jark Wu
排查了下,确实是个 bug,我开了个 issue 来跟进解决: https://issues.apache.org/jira/browse/FLINK-16113 当前的 workaround 可以将常量放到 selelct 中,比如 select a,b,'windows进程创建' from MyTable where c = 'windows进程创建' Best, Jark On Mon, 17 Feb 2020 at 15:15, jun su wrote: > 上一个问题补充, 在blink table planner下: > > select e

Re:Re: 使用Flink 1.10 blink planner写ES的异常问题

2020-02-15 文章 sunfulin
DL。 > >Best, >Jark > >On Fri, 14 Feb 2020 at 23:03, sunfulin wrote: > >> Hi, >> 我使用Flink 1.10,开启了Blink Planner,在尝试写入ES且使用UpsertMode时(sql就是insert into >> table select xxx group by x),抛出了如下异常: >> 我通过DDL尝试定义一个ESTableSink,且声名primary key时,运行时又说Primary key和uni

Re: ParquetTableSource在blink table planner下的使用问题

2020-02-14 文章 jun su
1. 发现ParquetTableSource在flink table planner下, stream/batch 两个模式下都有以上提出的问题, 2. blink table planner下没有以上问题, 但是中文print方法有编码问题 不清数是不是我使用问题,麻烦查证下 jun su 于2020年2月14日周五 下午6:30写道: > hi Jark Wu, > > 抱歉以下是我的代码和结果: > > public static void main(String[] args) throws Exception { > Ex

Re: ParquetTableSource在blink table planner下的使用问题

2020-02-14 文章 Jark Wu
下午5:05写道: > >> Hi jun, >> >> pushdown逻辑是批流复用的,应该work的很愉快。 >> >> Best, >> Jingsong Lee >> >> >> -- >> From:jun su >> Send Time:2020年2月14日(星期五) 17:00 >> To:user-zh

Re: ParquetTableSource在blink table planner下的使用问题

2020-02-14 文章 jun su
> Jingsong Lee > > > -- > From:jun su > Send Time:2020年2月14日(星期五) 17:00 > To:user-zh > Subject:ParquetTableSource在blink table planner下的使用问题 > > 你好: >官网文档中说明Blink Table Planner并不支持BatchTableSource, > > 目前最新版1.10代码中的ParquetTableSource还是BatchTableSource,那么说明

ParquetTableSource在blink table planner下的使用问题

2020-02-14 文章 jun su
你好: 官网文档中说明Blink Table Planner并不支持BatchTableSource, 目前最新版1.10代码中的ParquetTableSource还是BatchTableSource,那么说明目前的ParquetTableSource还不支持blink table planner ?如果将现有的ParquetTableSource改成StreamTableSource后, pushdown逻辑会不会出现bug?

Re: blink(基于flink1.5.1版本)可以使用两个hadoop集群吗?

2020-01-26 文章 Yun Tang
/yarn_setup.html#background--internals 祝好 唐云 From: Yong Sent: Wednesday, January 22, 2020 14:53 To: dev ; user-zh Subject: blink(基于flink1.5.1版本)可以使用两个hadoop集群吗? 大家好, flink可以使用两个hadoop集群吗? 背景如下: 目前我这边基于blink搭建了flink standalone集群,状态存储使用公司的hadoop hdfs 并且使用了kerberos认证

blink(????flink1.5.1????)????????????hadoop????????

2020-01-21 文章 Yong
flinkhadoop ?? ??blink??flink standalonehadoop hdfs ??kerberos??TM??jobHadoop YARN??flink

Re: blink planner的org.apache.flink.table.api.ValidationException报错

2020-01-19 文章 Kevin Liao
>> Jingsong Lee >> >> -- >> From:Kevin Liao >> Send Time:2020年1月14日(星期二) 11:38 >> To:user-zh ; JingsongLee < >> lzljs3620...@aliyun.com> >> Subject:Re: blink planner的org.apache.fli

求助帖:flink tpc-ds中加入blink的runtime filter问题

2020-01-16 文章 zhaoyunpython . d . 1

Re: blink planner的org.apache.flink.table.api.ValidationException报错

2020-01-13 文章 Kevin Liao
t; Jingsong Lee > > -- > From:Kevin Liao > Send Time:2020年1月14日(星期二) 11:38 > To:user-zh ; JingsongLee < > lzljs3620...@aliyun.com> > Subject:Re: blink planner的org.apache.flink.table.api.ValidationException报错 > > flink 版本是 1.9.1 release > > Doc >

Re: blink planner的org.apache.flink.table.api.ValidationException报错

2020-01-13 文章 JingsongLee
谢谢, 你可以试下最新的1.9版本或是1.10或是master吗?因为这里修了一些bug,不确定还存在不。 Best, Jingsong Lee -- From:Kevin Liao Send Time:2020年1月14日(星期二) 11:38 To:user-zh ; JingsongLee Subject:Re: blink planner的org.apache.flink.table.api.ValidationException报错

Re: blink planner的org.apache.flink.table.api.ValidationException报错

2020-01-13 文章 Kevin Liao
, doc.xxxN as seq FROM xxx"); > > //result.printSchema(); > tEnv.toAppendStream(result, > new TupleTypeInfo<>(STRING, STRING, STRING, STRING, STRING, > STRING, STRING, STRING, > STRING, STRING, BOOLEAN, LONG, STRING, STRING, STRING, > STRING

blink planner的org.apache.flink.table.api.ValidationException报错

2020-01-13 文章 Kevin Liao
ING, STRING, BOOLEAN, LONG, STRING, STRING, STRING, STRING, STRING, STRING, STRING, LONG, STRING, INT, STRING, INT)).print(); 以上代码在 flink planner 下可以运行,但切换到 blink planner 则报错如下: 、、、 Exception in thread "main" org.apache.flink.t

Re: 如何限制blink中资源使用上限(perjob模式)

2019-10-20 文章 Xintong Song
你好, blink perjob模式是根据job的资源需求按需申请资源的,不能限制整个job的资源上限。 你列出来的这几个参数,只能控制单个TM的资源上限,但是单个TM的资源上限减少了,整个job的资源需求并不会变,只是会申请更多的TM。 Thank you~ Xintong Song On Sat, Oct 19, 2019 at 3:56 PM 蒋涛涛 wrote: > Hi all, > > 我在使用blink提交的任务的时候(perjob模式),如何限制任务的资源使用上限啊,有个任务使用yarn的vcores特别多 &

Re: blink SQL从kafka中获取rowtime

2019-10-17 文章 Jark Wu
om-field', > 'schema.0.rowtime.timestamps.from' = 'sqlTimestamp', > 'schema.0.rowtime.watermarks.type' = 'periodic-ascending') > 尝试过这样的定义也是报同样的错 > > On Thu, 17 Oct 2019 at 20:22, Zijie Lu wrote: > >> 而这个定义在old planner里是可以用的 >> >> On Thu, 17

Re: blink SQL从kafka中获取rowtime

2019-10-17 文章 Zijie Lu
ing"}' 'schema.0.rowtime.timestamps.type' = 'from-field', 'schema.0.rowtime.timestamps.from' = 'sqlTimestamp', 'schema.0.rowtime.watermarks.type' = 'periodic-ascending') 尝试过这样的定义也是报同样的错 On Thu, 17 Oct 2019 at 20:22, Zijie Lu wrote: > 而这个定义在old planner里是可以用的 > > On Thu, 17 O

Re: blink SQL从kafka中获取rowtime

2019-10-17 文章 Zijie Lu
而这个定义在old planner里是可以用的 On Thu, 17 Oct 2019 at 19:49, Zijie Lu wrote: > 我使用blink planner来定义了下面的表 > CREATE TABLE requests( > `rowtime` TIMESTAMP, > `requestId` VARCHAR, > `algoExtent` ROW(`mAdId` VARCHAR)) > with ( > 'connector.type' = 'kafka', > 'connect

blink SQL从kafka中获取rowtime

2019-10-17 文章 Zijie Lu
我使用blink planner来定义了下面的表 CREATE TABLE requests( `rowtime` TIMESTAMP, `requestId` VARCHAR, `algoExtent` ROW(`mAdId` VARCHAR)) with ( 'connector.type' = 'kafka', 'connector.version' = 'universal', 'connector.topic' = 'test_request', 'connector.startup-mode' = 'latest-offset

Re:Re: Flink 1.9 Blink planner 时间字段问题

2019-09-06 文章 hb
不行, Caused by: org.apache.flink.table.api.ValidationException: Rowtime attribute '_rowtime' is not of type SQL_TIMESTAMP. 在 2019-09-06 10:48:02,"Jark Wu" 写道: >可能是因为你在 schema 中把 eventTime 声明成了 timestamp 类型,你可以声明成 long 试试。 >.field("_rowtime", Types.LONG()) > >> 在 2019年9月5日,15:11,hb

Re: Flink 1.9 Blink planner 时间字段问题

2019-09-05 文章 Jark Wu
可能是因为你在 schema 中把 eventTime 声明成了 timestamp 类型,你可以声明成 long 试试。 .field("_rowtime", Types.LONG()) > 在 2019年9月5日,15:11,hb <343122...@163.com> 写道: > > 实际应用中, 时间字段最常用的就是Long类型的毫秒时间戳, 难道这个不支持么.

Re:回复: Flink 1.9 Blink planner 时间字段问题

2019-09-05 文章 hb
实际应用中, 时间字段最常用的就是Long类型的毫秒时间戳, 难道这个不支持么. 在 2019-09-05 14:06:08,"pengcheng...@bonc.com.cn" 写道: >FLINK 应该不能把输入的eventTime的long类型转成SQL_TIMESTAMP类型 > > >发件人: hb >发送时间: 2019-09-05 14:24 >收件人: user-zh >主题: Flink 1.9 Blink planner 时间字段问题 >代码里定义了kafka connectorDesc

Flink 1.9 Blink planner 时间字段问题

2019-09-05 文章 hb
代码里定义了kafka connectorDescriptor , 从kafka读取json格式数据, 生成Table schema .field("_rowtime", Types.SQL_TIMESTAMP()) .rowtime( new Rowtime() .timestampsFromField("eventTime") .watermarksPeriodicBounded(1000)) kafka输入: {"eventTime": 10, "id":1,"name":"hb"} 会报错, 输入 {"eventTime":

Re: flink1.9 Blink planner create view 问题

2019-08-27 文章 Jark Wu
1.9 还不支持 create view 语法。如果要注册一个 view,可以通过下面的办法: Table table = tEnv.sqlQuery(“select * from T”) tEnv.registerTable(“v1”, table); 然后你就可以在之后的sql 中直接查询 v1了 Best, Jark > 在 2019年8月28日,11:39,hb <343122...@163.com> 写道: > >

flink1.9 Blink planner create view 问题

2019-08-27 文章 hb
注册了T表后,创建view报错 tEnv.sqlUpdate(s"create view v1 as select * from T") Exception in thread "main" org.apache.flink.table.api.TableException: Unsupported node type SqlCreateView 是用错方法了,还是不支持

Re: flink1.9 blink planner table ddl 使用问题

2019-08-27 文章 徐骁
日,17:59,徐骁 写道: > > > > 这部分有文档吗,看了好几圈没看到 > > > > hb <343122...@163.com> 于2019年8月26日周一 下午3:34写道: > > > >> 感谢,解决了, 指定 'connector.version' = '0.11' 就可以了. > >> Blink SQL这方面的官方资料和文档好少啊,开发容易遇到问题. > >> > >> 在 2019-08-26 14:26:15,&quo

Re: flink1.9 blink planner table ddl 使用问题

2019-08-27 文章 Jark Wu
63.com> 于2019年8月26日周一 下午3:34写道: > >> 感谢,解决了, 指定 'connector.version' = '0.11' 就可以了. >> Blink SQL这方面的官方资料和文档好少啊,开发容易遇到问题. >> >> 在 2019-08-26 14:26:15,"hb" <343122...@163.com> 写道: >>> kafka版本是 kafka_2.11-1.1.0, >>> 支持的kafka版本有哪些 >>

Re: Re:回复: Re: flink1.9 blink planner table ddl 使用问题

2019-08-27 文章 徐骁
这部分有文档吗,看了好几圈没看到 hb <343122...@163.com> 于2019年8月26日周一 下午3:34写道: > 感谢,解决了, 指定 'connector.version' = '0.11' 就可以了. > Blink SQL这方面的官方资料和文档好少啊,开发容易遇到问题. > > 在 2019-08-26 14:26:15,"hb" <343122...@163.com> 写道: > >kafka版本是 kafka_2.11-1.1.0, > >支持的

Re: flink1.9中关于blink的文档在哪看呀

2019-08-26 文章 Jark Wu
Blink 合并到 flink 后,是作为一种 planner 的实现存在,所以文档是和 flink 在一起的。 如何使用 blink planner,可以看这里:https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/common.html#create-a-tableenvironment <https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/common.html#cre

Re: flink1.9中关于blink的文档在哪看呀

2019-08-26 文章 Zili Chen
Blink 的文档应该都在 [1] 了,并没有跟着 Flink 版本变化而变化的意思呀(x Best, tison. [1] https://github.com/apache/flink/blob/blink/README.md rockey...@163.com 于2019年8月27日周二 上午10:18写道: > > hi,all > flink1.9中关于blink的文档在哪看呀?找了半天找不到 0.0 > > > rockey...@163.com > Have a good day ! >

flink1.9中关于blink的文档在哪看呀

2019-08-26 文章 rockey...@163.com
hi,all flink1.9中关于blink的文档在哪看呀?找了半天找不到 0.0 rockey...@163.com Have a good day !

Re:Re:回复: Re: flink1.9 blink planner table ddl 使用问题

2019-08-26 文章 hb
感谢,解决了, 指定 'connector.version' = '0.11' 就可以了. Blink SQL这方面的官方资料和文档好少啊,开发容易遇到问题. 在 2019-08-26 14:26:15,"hb" <343122...@163.com> 写道: >kafka版本是 kafka_2.11-1.1.0, >支持的kafka版本有哪些 >在 2019-08-26 14:23:19,"pengcheng...@bonc.com.cn" 写道: >>检查一下代码的kafka版本,可能是这

Re:Re: flink1.9 blink planner table ddl 使用问题

2019-08-25 文章 hb
'format.derive-schema' = 'true' >); > > >Kafka 中的数据长这个样子: > >{"rowtime": "2018-03-12T08:00:00Z", "user_name": "Alice", "event": { >"message_type": "WARNING", "message": "This is a warning."}} > &g

Re: flink1.9 blink planner table ddl 使用问题

2019-08-25 文章 Jark Wu
t;, "message": "This is a warning."}} Best, Jark > 在 2019年8月26日,09:52,hb <343122...@163.com> 写道: > > flink1.9 blink planner table 使用ddl 语句,创建表不成功,不知道是少了 定义属性还是 > 需要实现TableSourceFactory,还是其他什么. > > > 提示: > Exception in thread &q

flink1.9 blink planner table ddl 使用问题

2019-08-25 文章 hb
flink1.9 blink planner table 使用ddl 语句,创建表不成功,不知道是少了 定义属性还是 需要实现TableSourceFactory,还是其他什么. 提示: Exception in thread "main" org.apache.flink.table.api.ValidationException: SQL validation failed. findAndCreateTableSource fail

Re: blink 版本 消费kafka 看不到group id

2019-06-24 文章 Biao Liu
抱歉,没看懂你的问题 1. group id 和 offset 有什么关系? 2. "在kafka 里看不到group id" 指什么? 雷水鱼 于2019年6月24日周一 下午5:05写道: > 现象 > 使用这个pom ,在kafka 里看不到group id > > com.alibaba.blink > flink-streaming-scala_2.11 > blink-3.2.2 > > > org.slf4j > slf4j-api > > >

blink 版本 消费kafka 看不到group id

2019-06-24 文章 雷水鱼
现象 使用这个pom ,在kafka 里看不到group id com.alibaba.blink flink-streaming-scala_2.11 blink-3.2.2 org.slf4j slf4j-api com.alibaba.blink flink-connector-kafka-0.11_2.11 blink-3.2.0 org.slf4j slf4j-api 使用开源版本,可以看到在kafka 看到group id org.apache.flink flink-streaming-java_2.12

Re: Blink在Hive表没有统计信息的情况下如何优化

2019-05-28 文章 Kurt Young
你先试试把HashJoin这个算子禁用看看,TableConfig里添加这个配置 sql.exec.disabled-operators: HashJoin Best, Kurt On Tue, May 28, 2019 at 3:23 PM bigdatayunzhongyan < bigdatayunzhong...@aliyun.com> wrote: > 感谢 @Kurt Young 大神的回复,报错信息在附件。谢谢! > > > 在2019年05月28日 14:10,Kurt Young 写道: > >

回复: Blink在Hive表没有统计信息的情况下如何优化

2019-05-28 文章 bigdatayunzhongyan
org.apache.flink.runtime.io.network.netty.exception.RemoteTransportException: Fatal error at remote task manager '/xx:14941'. at org.apache.flink.runtime.io.network.netty.CreditBasedPartitionRequestClientHandler.decodeMsg(CreditBasedPartitionRequestClientHandler.java:276) at

blink访问带kerberos认证kafka的问题

2019-05-24 文章 苏 欣
大家好,我使用blink集群访问带认证的kafka,按照文档上的方式配置flink-conf.yaml文件,配置如下: security.kerberos.login.use-ticket-cache: false security.kerberos.login.keytab: /home/kafka/kafka.keytab security.kerberos.login.principal: kafka/slave2@MYCDH security.kerberos.login.contexts: Client,KafkaClient blink集群总共三台节点,把配置文件依次

  1   2   >