Re: Re: Re: idea导入flink源码问题(看不到图片,贴了下文字)

2021-01-13 文章 Carmen Free
/ > > central > > > > > > net-cn > > central > > Human Readable Name for this Mirror. > > http://maven.net.cn/content/groups/public/ > > > > > > JBossJBPM > > central > > JBossJBPM Repository > &

Re: Re: idea导入flink源码问题(看不到图片,贴了下文字)

2021-01-12 文章 Carmen Free
> > > > > > > > > > > > > > > > > 在 2021-01-13 13:42:27,"Carmen Free" 写道: > >hi, > > > >图看不见。 > > > >penguin. 于2021年1月13日周三 下午1:19写道: > > > >> 已经在maven的setting文件中配置了好几个镜像了,还是这样。如下图 > >> > >> > >> > >> > >> > >> >

Re: rocksdb作为statebackend时,TM节点挂掉了,为何任务不能恢复呢?

2021-01-12 文章 Carmen Free
nting.html#prerequisites > > 祝好 > 唐云 > ____ > From: Carmen Free > Sent: Wednesday, January 13, 2021 11:28 > To: user-zh@flink.apache.org > Subject: Re: rocksdb作为statebackend时,TM节点挂掉了,为何任务不能恢复呢? > > Hi 唐老师, > > 我又重新尝试了新的场景。 > > 我将集群

Re: idea导入flink源码问题

2021-01-12 文章 Carmen Free
hi, 图看不见。 penguin. 于2021年1月13日周三 下午1:19写道: > 已经在maven的setting文件中配置了好几个镜像了,还是这样。如下图 > > > > > >

Re: rocksdb作为statebackend时,TM节点挂掉了,为何任务不能恢复呢?

2021-01-12 文章 Carmen Free
d的checkpoint目录配置成了本地目录,checkpoint保存到了本地机器上,所以在failover > restore的时候,必须得让原task部署回原来的机器才能正常运行。将state backend的checkpoint目录更换为一个DFS目录即可。 > > > 祝好 > 唐云 > ____ > From: Carmen Free > Sent: Tuesday, January 12, 2021 18:14 > To: user-zh@flink.apache.org

Re: rocksdb作为statebackend时,TM节点挂掉了,为何任务不能恢复呢?

2021-01-12 文章 Carmen Free
限也设置成了777 Yun Tang 于2021年1月12日周二 下午5:46写道: > Hi > > Flink的容错机制是可以保证TM lost时候会尝试重启作业,“为何任务不能恢复”是需要看完整异常栈的,简单描述是无法帮助排查问题的。 > > 祝好 > 唐云 > ________ > From: Carmen Free > Sent: Tuesday, January 12, 2021 15:52 > To: user-zh@flink.apache.org >

rocksdb作为statebackend时,TM节点挂掉了,为何任务不能恢复呢?

2021-01-11 文章 Carmen Free
hi, rocksdb作为statebackend时,TM节点挂掉了,为何任务不能恢复呢? 1、环境说明 flink版本:1.10.2 操作系统:centos 7 2、集群说明(当前模拟了2节点) 节点A | 节点B 角色| JM、TM|TM taskslot | 4 | 4 3、statebackend配置 # rocksdb作为状态后备 state.backend: rocksdb #

Re: flink sql 消费鉴权的kafka,是怎么消费的呢?在kafka未添加鉴权之前,flink SQL消费kafka是正常的

2021-01-05 文章 Carmen Free
好的,非常感谢。 赵一旦 于2021年1月6日周三 下午1:08写道: > 这个的话去看看KafkaConnector相关的参数,比较新的版本支持配置解析错误忽略。 > > Carmen Free 于2021年1月6日周三 上午10:58写道: > > > 感谢帮忙解决问题,确实包的路径有问题,换成这个包就解决了这个问题。 > > > > 紧接着我这边出现了新的异常 > > > > > org.apache.flink.shaded.jackson2.com.fasterxml.

Re: flink sql 消费鉴权的kafka,是怎么消费的呢?在kafka未添加鉴权之前,flink SQL消费kafka是正常的

2021-01-05 文章 Carmen Free
处理吗? 赵一旦 于2021年1月5日周二 下午9:18写道: > 我感觉还是jar的问题。如下尝试下,我懒得去试了。 > 将 org.apache.kafka.common.security.plain.PlainLoginModule 替换为 > org.apache.flink.kafka.shaded.org.apache.kafka.common.securi > ty.plain.PlainLoginModule > > 因为你用的是sql-connector-kafka,这个包把kafka-clients的包shade了。 > &g

flink sql 消费鉴权的kafka,是怎么消费的呢?在kafka未添加鉴权之前,flink SQL消费kafka是正常的

2021-01-05 文章 Carmen Free
flink sql 消费鉴权的kafka,是怎么消费的呢?在kafka未添加鉴权之前,flink SQL消费kafka是正常的 1、版本说明 flink版本:1.10.2 kafka版本:1.1.0 2、kafka鉴权说明 仅使用了sasl鉴权方式 在kafka客户端有配置 kafka_server-jass.conf、 server.properties、producer.properties、consumer.properties 3、主要配置参数 sasl.mechanism=PLAIN security.protocol=SASL_PLAINTEXT