igured to only allow secure connections”
>
>
>
>
>-邮件原件-
>发件人: user-zh-return-1559-wxchunjhyy=163@flink.apache.org
> 代表 guoshuai
>发送时间: Wednesday, November 27, 2019 2:26 PM
>收件人: user-zh@flink.apache.org
>主题: Re:回复: flink on yarn 的 kerbe
auth. But
the client is configured to only allow secure connections”
-邮件原件-
发件人: user-zh-return-1559-wxchunjhyy=163@flink.apache.org
代表 guoshuai
发送时间: Wednesday, November 27, 2019 2:26 PM
收件人: user-zh@flink.apache.org
主题: Re:回复: flink on yarn 的 kerberos 认证问题
HBase认证需要ZooKeeper和Kerbe
HBase认证需要ZooKeeper和Kerberos安全认证,跟ZooKeeper认证“jaas.conf”文件也加载进去了吗?
LoginUtil.setJaasConf(ZOOKEEPER_DEFAULT_LOGIN_CONTEXT_NAME, userName,
userKeytabFile);
LoginUtil.setZookeeperServerPrincipal(ZOOKEEPER_SERVER_PRINCIPAL_KEY,
ZOOKEEPER_DEFAULT_SERVER_PRINCIPAL);
LoginUtil.login(userName,
我们kafka 可以正常认证、消费数据,认证hbase 和kafka 好像不一样,我们是不认证
读不到数据,认证了,任务又提交不到 yarn 上去了
如下:
>看过对应位置的代码,将 “Hadoop.security.authentication =
kerberos”
>参数添加到 Hadoop 的 配置文件中(注: 使用 simple 认证的 hadoop集
>群使用 amberi 部署 的 hdp 集群,不开启 Kerberos 认证 参数
“Hadoop.security.
>authentication” 的值为 simple ),使程序认证通过,但是