是的,是这个问题,发现包打在胖包里面了,但是找不到,把包放在flink lib 目录下就好了,很奇怪
> 在 2019年9月11日,上午9:35,Dian Fu 写道:
>
> 看你的报错,Kafka010TableSourceSinkFactory不在classpath里,需要把kafka
> connector的jar(0.10需要依赖flink-connector-kafka-0.10_2.11或者flink-connector-kafka-0.10_2.12)放到依赖里。
>
>
>> 在 2019年9月10日,下午12:31,越张 写道:
>>
>> 代码:
>>
Blink文档中有介绍到EMIT Strategy,可以用WITH DELAY '1' MINUTE BEFORE WATERMARK或者EMIT
WITHOUT DELAY AFTER WATERMARK等类似的语法来控制窗口触发。
但是我使用这种语法作业运行就会报SQL解析错误,请问有没有办法可以在sql中实现控制窗口触发的操作?
Table result = tEnv.sqlQuery("select " +
"count(*) " +
"from dept group by tumble(crt_time,
kafka??kafka??group
-- --
??:
I want to implement grouping set in stream. I am new to flink sql. I
want to find a example to teach me how to self define rule and
implement corresponding operator. Can anyone give me any suggestion?
??
??jasine
chenkafka??
??
maqy
----
??:"Jimmy Wong"https://zhuanlan.zhihu.com/p/77677075
??
maqy
-- --
版本:flink1.7.1
系统:centos 7
提交job前已经执行start-cluster.sh
作业提交主机名:test04
当我用如下命令提交flink job时总是报以下错误,请大家帮忙排查原因,谢谢
$ bin/flink run -m test04:8081 -c
org.apache.flink.quickstart.factory.FlinkConsumerKafkaSinkToKuduMainClass
flink-scala-project1.jar
Starting execution of program
on 2019/9/10 13:47, 蒋涛涛 wrote:
尝试手段:
1. 手动迁移IO比较高的任务到其他机器,但是yarn任务提交比较随机,只能偶尔为之
2. 目前没有SSD,只能用普通STATA盘,目前加了两块盘提示磁盘IO能力,但是单盘对单任务的磁盘IO瓶颈还在
还有哪些策略可以解决或者缓解么?
It seems the tricks to improve RocksDB's throughput might be helpfu.
With writes and reads accessing mostly the recent data, our goal