hi,
我现在使用flink1.12写HDFS又重新碰到了这个问题,请问有什么办法可以避免吗?
best,
amenhub
发件人: Yu Li
发送时间: 2020-08-11 21:43
收件人: user-zh
主题: Re: Flink 1.10.1版本StreamingFileSink写入HDFS失败
Hi 王剑,
我认为你的分析是正确的,相关代码在超过lease的soft limit之后应该主动调用一下recover
lease的逻辑。你是否愿意提交一个patch来fix该问题?我在JIRA上也留言了,后续可以直接在JIRA上讨论。
另外,更正一下JIRA
Hi 王剑,
我认为你的分析是正确的,相关代码在超过lease的soft limit之后应该主动调用一下recover
lease的逻辑。你是否愿意提交一个patch来fix该问题?我在JIRA上也留言了,后续可以直接在JIRA上讨论。
另外,更正一下JIRA链接:https://issues.apache.org/jira/browse/FLINK-18592
Best Regards,
Yu
On Tue, 11 Aug 2020 at 15:16, Jian Wang wrote:
> Hi all,
>
> 我们在使用flink-1.10.1 on YARN(版本:
Hi all,
我们在使用flink-1.10.1 on YARN(版本:
3.0.0-cdh6.3.2)的时候,使用StreamingFileSink时遇到异常信息,详细信息如下:
代码部分:
public static StreamingFileSink build(String dir,
BucketAssigner assigner, String prefix){
return StreamingFileSink.forRowFormat(new Path(dir), new
SimpleStringEncoder())