我们在开发一个Flink SQL 框架,在从kafka读取数据加工写入到Hive时一直不成功,sql脚本如下:
CREATE TABLE hive_table_from_kafka (
collect_time STRING,
content1 STRING,
content2 STRING
) PARTITIONED BY (
dt STRING,hr STRING
) TBLPROPERTIES (
'partition.time-extractor.timestamp-pattern'='$dt $hr',
各位大佬
我看flink-connector-kudu的例子都是DataStream,但是我想用DataSet 进行点查。 看着提示好像不支持。 有什么办法处理么?
代码如下:
StreamExecutionEnvironment env =
StreamExecutionEnvironment.getExecutionEnvironment();
StreamTableEnvironment tEnv = StreamTableEnvironment.create(env);
StreamTableEnvironment tEnv2 =
----
??:
"Presley"
flinksql1.11hiveidea??Caused by:
java.lang.ClassNotFoundException:
org.apache.hadoop.fs.PathHandle_(:??)_
flink1.11??org.apache.flink.table.catalog.hive.HiveCatalog#HiveCatalog(java.lang.String,
java.lang.String,
Hi,
这样体验上还是不太友好,如果能做成spark那种每个Job独立记录日志就好了
--
Sent from: http://apache-flink.147419.n8.nabble.com/
报错内容:Python callback server start failed!
Hi!
Optional.of(new customPartitioner())
Ye Chen wrote
> 各位好,我想实现自定义partition,继承了 FlinkKafkaPartitioner 后,使用会报错,简化的代码如下。
> //自定义partition
> public class customPartitioner extends FlinkKafkaPartitioner
>
> {
> @Override
> public int partition(String record, byte[] key, byte[]
_(:??)_
----
??:
"user-zh"
??,,??,flinkjoin??,hbase,??
----
??:
应该是继承scalaFunction ?
在 2021-02-22 10:25:31,"xiaoyue" <18242988...@163.com> 写道:
>捞一下自己,在线等大佬们的回复 _(:з」∠)_
>
>
>
>
>
>
>
>在 2021-02-20 13:14:18,"xiaoyue" <18242988...@163.com> 写道:
>
>我在使用flinksql1.11的udaf时出现SqlValidatorException: No match found for function
>signature
可以用多流join,但是数据延迟会导致join不上,可以侧输出处理下,看业务需求
在 2021-02-22 11:05:46,"liujian" <13597820...@qq.com> 写道:
>Hi:
> 大家好,有3张实时的表,相互关联可以形成大宽表,如何一张都会更新,那么我该如何实现流处理,我目标表放到kudu上
>
> 我的理解:
> 直接使用jdbc-connecter将三张表读取,然后join,再写入,会不会有什么问题
Hi:
??,??3??,??,,??,kudu??
:
jdbc-connecter,join,??,
不对,看了你描述没看代码。你代码那么写的化是2个哈。因为你keyBy后做了flatMap,再keyBy就是另外一个了哈。
yidan zhao 于2021年2月22日周一 上午10:31写道:
> 只有最后一个keyBy有效。
>
> Hongyuan Ma 于2021年2月21日周日 下午10:59写道:
>
>> 大佬们, 如果keyby两次然后再调用window()的话是只根据最后一次keyby的键生成n个窗口,
>> 还是在前一次keyby的基础上生成m*n个窗口?
>>
>>
>> 像下面这样写, 最后的窗口是只按area划分的吗?
>> //
只有最后一个keyBy有效。
Hongyuan Ma 于2021年2月21日周日 下午10:59写道:
> 大佬们, 如果keyby两次然后再调用window()的话是只根据最后一次keyby的键生成n个窗口,
> 还是在前一次keyby的基础上生成m*n个窗口?
>
>
> 像下面这样写, 最后的窗口是只按area划分的吗?
> // 我想对不同车(id)的轨迹进行预测, 然后统计各个区域(area)内的轨迹信息
> stream.keyby("id")
> .flatmap() // 根据id 对轨迹进行预测, 在里面使用key state
> .assignTime() //
捞一下自己,在线等大佬们的回复 _(:з」∠)_
在 2021-02-20 13:14:18,"xiaoyue" <18242988...@163.com> 写道:
我在使用flinksql1.11的udaf时出现SqlValidatorException: No match found for function
signature prod(),请求大佬帮忙看看_(:з」∠)_
以下是代码:
-
...
各位大佬,
请问pyflink现在有对Redis sink的支持吗,有没有demo可以参考,感谢!
各位大佬,
请问pyflink现在有对Redis sink的支持吗,有没有demo可以参考,感谢!
大佬们, 如果keyby两次然后再调用window()的话是只根据最后一次keyby的键生成n个窗口, 还是在前一次keyby的基础上生成m*n个窗口?
像下面这样写, 最后的窗口是只按area划分的吗?
// 我想对不同车(id)的轨迹进行预测, 然后统计各个区域(area)内的轨迹信息
stream.keyby("id")
.flatmap() // 根据id 对轨迹进行预测, 在里面使用key state
.assignTime() // 修改轨迹eventTime为预测出的时间
.keyby("area")
.window() // 根据区域划分窗口
.process() //
18 matches
Mail list logo