Flink SQL 写入Hive问题请教

2021-02-21 文章 yinghua...@163.com
我们在开发一个Flink SQL 框架,在从kafka读取数据加工写入到Hive时一直不成功,sql脚本如下: CREATE TABLE hive_table_from_kafka ( collect_time STRING, content1 STRING, content2 STRING ) PARTITIONED BY ( dt STRING,hr STRING ) TBLPROPERTIES ( 'partition.time-extractor.timestamp-pattern'='$dt $hr',

bahir-flink 的 flink-connector-kudu 能做批读取么?

2021-02-21 文章 Haseo Chen
各位大佬 我看flink-connector-kudu的例子都是DataStream,但是我想用DataSet 进行点查。 看着提示好像不支持。 有什么办法处理么? 代码如下: StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); StreamTableEnvironment tEnv = StreamTableEnvironment.create(env); StreamTableEnvironment tEnv2 =

??????flinksql1.11????hive??ClassNotFoundException: org.apache.hadoop.fs.PathHandle

2021-02-21 文章 Presley
---- ??: "Presley"

flinksql1.11????hive??ClassNotFoundException: org.apache.hadoop.fs.PathHandle

2021-02-21 文章 Presley
flinksql1.11hiveidea??Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.PathHandle_(:??)_ flink1.11??org.apache.flink.table.catalog.hive.HiveCatalog#HiveCatalog(java.lang.String, java.lang.String,

Re: Flink standalone模式如何区分各个任务的日志?

2021-02-21 文章 xingoo
Hi, 这样体验上还是不太友好,如果能做成spark那种每个Job独立记录日志就好了 -- Sent from: http://apache-flink.147419.n8.nabble.com/

SQL作业中使用python udfs语法检查报错,作业提交缺没问题

2021-02-21 文章 zilong xiao
报错内容:Python callback server start failed!

Re: 自定义partition,使用遇到问题,附代码

2021-02-21 文章 冯嘉伟
Hi! Optional.of(new customPartitioner()) Ye Chen wrote > 各位好,我想实现自定义partition,继承了 FlinkKafkaPartitioner 后,使用会报错,简化的代码如下。 > //自定义partition > public class customPartitioner extends FlinkKafkaPartitioner > > { > @Override > public int partition(String record, byte[] key, byte[]

??????Re:SqlValidatorException: No match found for function signature prod()

2021-02-21 文章 Presley
_(:??)_ ---- ??: "user-zh"

??????flink??????????

2021-02-21 文章 liujian
??,,??,flinkjoin??,hbase,?? ---- ??:

Re:Re:SqlValidatorException: No match found for function signature prod()

2021-02-21 文章 Ye Chen
应该是继承scalaFunction ? 在 2021-02-22 10:25:31,"xiaoyue" <18242988...@163.com> 写道: >捞一下自己,在线等大佬们的回复 _(:з」∠)_ > > > > > > > >在 2021-02-20 13:14:18,"xiaoyue" <18242988...@163.com> 写道: > >我在使用flinksql1.11的udaf时出现SqlValidatorException: No match found for function >signature

Re:flink生成大宽表

2021-02-21 文章 Ye Chen
可以用多流join,但是数据延迟会导致join不上,可以侧输出处理下,看业务需求 在 2021-02-22 11:05:46,"liujian" <13597820...@qq.com> 写道: >Hi: > 大家好,有3张实时的表,相互关联可以形成大宽表,如何一张都会更新,那么我该如何实现流处理,我目标表放到kudu上 > > 我的理解: > 直接使用jdbc-connecter将三张表读取,然后join,再写入,会不会有什么问题

flink??????????

2021-02-21 文章 liujian
Hi: ??,??3??,??,,??,kudu?? : jdbc-connecter,join,??,

Re: 大佬们, keyby()两次, 然后再window(), 会有几个窗口?

2021-02-21 文章 yidan zhao
不对,看了你描述没看代码。你代码那么写的化是2个哈。因为你keyBy后做了flatMap,再keyBy就是另外一个了哈。 yidan zhao 于2021年2月22日周一 上午10:31写道: > 只有最后一个keyBy有效。 > > Hongyuan Ma 于2021年2月21日周日 下午10:59写道: > >> 大佬们, 如果keyby两次然后再调用window()的话是只根据最后一次keyby的键生成n个窗口, >> 还是在前一次keyby的基础上生成m*n个窗口? >> >> >> 像下面这样写, 最后的窗口是只按area划分的吗? >> //

Re: 大佬们, keyby()两次, 然后再window(), 会有几个窗口?

2021-02-21 文章 yidan zhao
只有最后一个keyBy有效。 Hongyuan Ma 于2021年2月21日周日 下午10:59写道: > 大佬们, 如果keyby两次然后再调用window()的话是只根据最后一次keyby的键生成n个窗口, > 还是在前一次keyby的基础上生成m*n个窗口? > > > 像下面这样写, 最后的窗口是只按area划分的吗? > // 我想对不同车(id)的轨迹进行预测, 然后统计各个区域(area)内的轨迹信息 > stream.keyby("id") > .flatmap() // 根据id 对轨迹进行预测, 在里面使用key state > .assignTime() //

Re:SqlValidatorException: No match found for function signature prod()

2021-02-21 文章 xiaoyue
捞一下自己,在线等大佬们的回复 _(:з」∠)_ 在 2021-02-20 13:14:18,"xiaoyue" <18242988...@163.com> 写道: 我在使用flinksql1.11的udaf时出现SqlValidatorException: No match found for function signature prod(),请求大佬帮忙看看_(:з」∠)_ 以下是代码: - ...

pyflink对Redis sink的支持

2021-02-21 文章 whh_960101
各位大佬, 请问pyflink现在有对Redis sink的支持吗,有没有demo可以参考,感谢!

pyflink对Redis sink的支持

2021-02-21 文章 whh_960101
各位大佬, 请问pyflink现在有对Redis sink的支持吗,有没有demo可以参考,感谢!

大佬们, keyby()两次, 然后再window(), 会有几个窗口?

2021-02-21 文章 Hongyuan Ma
大佬们, 如果keyby两次然后再调用window()的话是只根据最后一次keyby的键生成n个窗口, 还是在前一次keyby的基础上生成m*n个窗口? 像下面这样写, 最后的窗口是只按area划分的吗? // 我想对不同车(id)的轨迹进行预测, 然后统计各个区域(area)内的轨迹信息 stream.keyby("id") .flatmap() // 根据id 对轨迹进行预测, 在里面使用key state .assignTime() // 修改轨迹eventTime为预测出的时间 .keyby("area") .window() // 根据区域划分窗口 .process() //