答复: flink1.10版本连接hive报错

2019-08-12 文章 苏 欣
感谢各位大佬提供思路,我增加了lzo的jar后不再报这种错而且能取到hive表的数据了。 我以为在flink-shaded-hadoop-2-uber里面包含了所有hadoop相关的包所以没去考虑缺包的问题 附下缺少的pom内容: org.apache.hadoop hadoop-lzo 0.4.13 发送自 Windows 10 版邮件应用 发件人: zhisheng 发送时间:

Re: Re: 有一些TaskManager的slot不可用,尽管没有任务正在运行

2019-08-12 文章 Xintong Song
你的问题描述比较笼统,最好是能提供一些详细的信息和日志,这样其他人才好帮助你。 例如你用的是哪个版本的flink,运行的是什么模式 (perjob / session),是在什么环境下运行的(standalone / yarn / mesos / k8s),是如何判断slot没有被释放的等。 Thank you~ Xintong Song On Mon, Aug 12, 2019 at 3:57 AM pengcheng...@bonc.com.cn < pengcheng...@bonc.com.cn> wrote: >

Re:flink源码编译可以不编译scala代码吗

2019-08-12 文章 chaojianok
Scala版本不一致,你本机的是Scala 2.13.0,Flink源码对应的是Scala 2.11,你把本机的Scala版本和Flink 1.7对应的Scala版本保持一致就可以了,建议是本地安装Scala 2.11重新编译Flink 1.7。 在 2019-08-12 15:15:38,"苟刚" 写道: > > > >Hi,All: > > > 我再尝试编译flink 1.7的源码时,遇到如下错误,本人对scala不是很了解,不知道是不是版本问题引起,另外可以去掉sacla模块编译吗: > 本机scala版本:2.13.0 >JDK 版本: 1.8.0_91 >[ERROR]