FYI Leonard's reply in another thread: =============================================
Flink hbase connector官网有的[1],1.10以前的包名是flink-hbase, 1.11后社区统一了所有connector的包名,包名为flink-connector-hbase[1],1.11最近快发布了,你的报错看起来是缺少了一些类,可以参考下hbase connector的依赖[2]。 [1] https://ci.apache.org/projects/flink/flink-docs-master/dev/table/connect.html#hbase-connector [2] https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-hbase/pom.xml On Thu, 4 Jun 2020 at 17:17, Weihua Hu <huweihua....@gmail.com> wrote: > 可以尝试把依赖包 shaded 到你的 jar 包里,保证依赖的完整 > > Best > Weihua Hu > > > 2020年6月3日 22:52,liunaihua521 <liunaihua...@163.com> 写道: > > > > > > > > --------- 转发邮件信息 --------- > > > > 发件人: liunaihua521 <liunaihua...@163.com> <mailto:liunaihua...@163.com> > > 发送日期: 2020年6月3日 22:18 > > 发送至: user-zh-i...@flink.apache.org <user-zh-i...@flink.apache.org> > <mailto:user-zh-i...@flink.apache.org>、 user-zh-...@flink.apache.org < > user-zh-...@flink.apache.org> <mailto:user-zh-...@flink.apache.org> > > 主题: flink1.10整合hbase测试遇到的问题 > > hi! > > 版本说明: > > flink版本1.10 > > HBase版本2.2.4 > > ZK版本3.6.1 > > Hadoop版本2.10.0 > > > > 程序说明: > > > > 程序是简单的实现RichSourceFunction和RichSinkFunction,读取和写入hbase,程序打包后上传standalone模式的集群. > > > > 报错说明: > > 提交任务后,总是报如下错误(附件附文本): > > <1B135BA0-EF16-482E-9388-BB058AB2C06C.png> > > 或者 > > <0BC55A5B-26B0-4BD5-A3DF-33985EDCE3E7.png> > > > > 尝试如下: > > 尝试一: > > flink的lib下有如下jar包: > > <44DE6BF1-09DA-44F5-B0A8-704B3539B675.png> > > 提交的jar包中发现没有下面连个类 > > 执行后报错 > > > > 尝试二: > > 将guava-11.0.2.jar包移动到hadoop的lib下,再次执行依然报错 > > > > 尝试结果: > > 反复尝试都一致报错,求大神们指点,再此先谢谢了! > > > > <flink??Hba se报错内容.txt> > >