请问你用的flink版本是?
thanks,
godfrey
--
发件人:李军
发送时间:2019年11月22日(星期五) 11:10
收件人:user-zh
主 题:请问一下 :启动session 时 ,报错:Could not write the Yarn connection information.
报错图片和详细内容如下
https://blog.csdn.net/qq_37518574/article/details/103197224
报错图片和详细内容如下
https://blog.csdn.net/qq_37518574/article/details/103197224
另外启动这个之前要启动哪些,yarn 和hdfs 都已经启动了;
初学,虚心请教,感谢。
Hi
每个 Checkpoint 生成多少文件,由作业决定,这个不需要用户自己手动设置。
Best,
Congxian
Godfrey Johnson 于2019年11月22日周五 上午9:26写道:
> 不太明白你说的是什么文件个数。
>
> 如果是CKP的保留个数,可以参考:
> https://ci.apache.org/projects/flink/flink-docs-stable/dev/stream/state/checkpointing.html#state-checkpoints-num-retained
>
> > 2019年11月21日
Hi JingsongLee, 晓令:
谢谢你们的答疑。
备注issue链接:https://issues.apache.org/jira/projects/FLINK/issues/FLINK-14899?filter=allissues
| |
叶贤勋
|
|
yxx_c...@163.com
|
签名由网易邮箱大师定制
在2019年11月21日 22:00,贺小令(晓令) 写道:
hi 叶贤勋:
你的SQL里先 ORDER BY proc desc ,然后取 rownum = 1, 等价于 last row 的逻辑。此时会产生
不太明白你说的是什么文件个数。
如果是CKP的保留个数,可以参考:https://ci.apache.org/projects/flink/flink-docs-stable/dev/stream/state/checkpointing.html#state-checkpoints-num-retained
> 2019年11月21日 下午10:41,?青春狂-^ 写道:
>
> Hi
> 关于flink的checkpoint存储的设置有几种方式,mem,hdfs,rocksdb,本地文件
>
>
Hi
flink??checkpoint??mem??hdfs??rocksdb??
checkpoint?
Thank you very much. It works for me.
> 在 2019年11月14日,下午1:06,Biao Liu 写道:
>
> Hi,
>
> I have encountered the same issue when setting up a dev environment.
>
> It seems that the my Intellij (2019.2.1) unexpectedly activates java11
> profile of maven. It doesn't match the Java compiler (JDK8).
hi 叶贤勋:
你的SQL里先 ORDER BY proc desc ,然后取 rownum = 1, 等价于 last row 的逻辑。此时会产生
retraction,但是结果表(user_dist) 没有定义 pk 信息,此时是不支持的,即报你看到的错误。
如果将 ORDER BY proc desc 改为 ORDER BY proc asc,加上 rownum = 1,等价于 first row
的逻辑,不会产生retraction,此时的结果表(user_dist) 是可以满足要求的。
但是 blink planner 目前处理 PROCTIME() 有问题,sql
Hi 叶贤勋:
现在去重现在支持insert into select 语法。
问题在于你的这个SQL怎么没产出UniqueKey
这里面可能有blink-planner的bug。
CC: @Jark Wu @godfrey he (JIRA)
Best,
Jingsong Lee
--
From:叶贤勋
Send Time:2019年11月21日(星期四) 16:20
To:user-zh@flink.apache.org
Hi 大家好:
Flink版本1.9.0,
SQL1:
CREATE TABLE user_log (
user_id VARCHAR,
item_id VARCHAR,
category_id VARCHAR,
behavior VARCHAR,
ts TIMESTAMP
) WITH (
'connector.type' = 'kafka',
'connector.version' = 'universal',
'connector.topic' = 'user_behavior',
10 matches
Mail list logo