Re: use flink 1.19 JDBC Driver can find jdbc connector

2024-05-15 文章 abc15606
现在可以用中文了?就是opt目录里面的gateway.jar直接编辑Factory文件把connector注册就行了 > 在 2024年5月15日,15:36,Xuyang 写道: > > Hi, 看起来你之前的问题是jdbc driver找不到,可以简单描述下你的解决的方法吗?“注册connection数的数量”有点不太好理解。 > > > > > 如果确实有类似的问题、并且通过这种手段解决了的话,可以建一个improvement的jira issue[1]来帮助社区跟踪、改善这个问题,感谢! > > > > > [1] https://issues.apache

Re: use flink 1.19 JDBC Driver can find jdbc connector

2024-05-09 文章 abc15606
I've solved it. You need to register the number of connections in the jar of gateway. But this is inconvenient, and I still hope to improve it. 发自我的 iPhone > 在 2024年5月10日,11:56,Xuyang 写道: > > Hi, can you print the classloader and verify if the jdbc connector exists in > it? > > > > > -- >

getMetricGroup is not supported when optimizing

2021-04-09 文章 abc15606
使用flink 1.11.2 启动任务的时候报 getMetricGroup is not supported when optimizing 请问各位大佬,怎么解决好? 发自我的iPhone

Re: checkpoint失败怎么排查

2021-01-05 文章 abc15606
应该是状态大,超时设了10分钟,还没有达到超时时间。到处找不到相关日志。 发自我的iPhone > 在 2021年1月6日,10:03,赵一旦 写道: > > 没日志咋排查,为啥失败总得说下。超时的话可能就是任务压力大,状态大等。 > > 于2021年1月6日周三 上午9:53写道: > >> flink 1.11.2环境下,三个kafka topic 的数据进行join,出现checkpoint失败,没有日志,请问怎么排查? >> >> 发自我的iPhone

checkpoint失败怎么排查

2021-01-05 文章 abc15606
flink 1.11.2环境下,三个kafka topic 的数据进行join,出现checkpoint失败,没有日志,请问怎么排查? 发自我的iPhone

Re: 1.11.2大概什么时候发布

2020-08-26 文章 abc15606
好的,谢谢。主要是hive streaming这块。 发自我的iPhone > 在 2020年8月26日,18:34,Yun Tang 写道: > > 可以参照 https://flink.apache.org/downloads.html#all-stable-releases > 的历史发布记录,一般是3个月左右,也就是大约10月底。 > > 1.11.2 有什么特别期待的bug fix么? > > 祝好 > 唐云 > > > > > From: abc15...@163.com > Sent: W

1.11.2大概什么时候发布

2020-08-26 文章 abc15606
1.11.2大概什么时候发布?

Elasticsearch 写入问题

2020-08-23 文章 abc15606
在flink1.11中使用table sql写入时,有一些字段为空时,依然被写入到elasticsearch,这个方式应该不太恰当。

Re: flink orc与hive2.1.1版本冲突怎么解决

2020-08-21 文章 abc15606
在内网,弄不出来。数组业界,在OrcFile$WriterVersion.from(OrcFile.java:145) 目前升级hive到2.3能正常用了,因为从hive2.3开始有独立的orc-core jar了。但是我们用的是CDH,这样子管理不太方便。 发自我的iPhone > 在 2020年8月21日,16:18,Rui Li 写道: > > 是说写数据用的是flink的FileSystem connector,然后读数据是用hive自己去读的?具体错误的stacktrace贴一下看看呢 > >> On Fri, Aug 21, 2020 at 3:05 PM wrot

Re: flink orc与hive2.1.1版本冲突怎么解决

2020-08-21 文章 abc15606
flink table sql把mysql的表数据写到hdfs的路径上,存成orc。hive创建外部表,查询报错。最根本原因是hive2.1是把orc的相关类打包一起的,包名举例,org.apache.hive.orc.,而且新版的是org.apache.orc.。 发自我的iPhone > 在 2020年8月21日,14:37,Rui Li 写道: > > Hi, > > 能不能具体描述一下你的作业是怎么写的?比如怎么创建的hive表,如何把数据写进去之类的。我们可以试试能不能重现你的问题 > >> On Fri, Aug 21, 2020 at 1:41

Re: flink orc与hive2.1.1版本冲突怎么解决

2020-08-20 文章 abc15606
试过了,一样的,本质也是通过写文件。 发自我的iPhone > 在 2020年8月21日,13:35,Jingsong Li 写道: > > 是的 > >> On Fri, Aug 21, 2020 at 1:30 PM wrote: >> >> flink hive表的方式是什么意思?hive streaming吗? >> >> 发自我的iPhone >> 在 2020年8月21日,13:27,Jingsong Li 写道: >>> >>> Flink filesystem connector 或者 DataStream用flink-orc >> 的版本

Re: flink orc与hive2.1.1版本冲突怎么解决

2020-08-20 文章 abc15606
flink hive表的方式是什么意思?hive streaming吗? 发自我的iPhone > 在 2020年8月21日,13:27,Jingsong Li 写道: > > Flink filesystem connector 或者 DataStream用flink-orc 的版本是比较新的版本,所以老版本的ORC读不了。 > > 建议你用Flink hive表的方式来写orc > >> On Fri, Aug 21, 2020 at 12:25 PM wrote: >> >> Flink是指定orc版本的,并没有用hive的。所以写进去之后,hive读不出来。 >>

Re: flink orc与hive2.1.1版本冲突怎么解决

2020-08-20 文章 abc15606
Flink是指定orc版本的,并没有用hive的。所以写进去之后,hive读不出来。 发自我的iPhone > 在 2020年8月21日,12:15,Jingsong Li 写道: > > 如果是hive table的写,flink sql是使用hive对应版本的orc的,所以理论上效果和hive sql写orc是一样的。 > 确定这个版本hive写出的数据可以被读取吗? > >> On Fri, Aug 21, 2020 at 10:17 AM wrote: >> >> 使用版本是flink 1.11 >> Hive 2.1.1 >> flink sql写到orc后,创建外

flink orc与hive2.1.1版本冲突怎么解决

2020-08-20 文章 abc15606
使用版本是flink 1.11 Hive 2.1.1 flink sql写到orc后,创建外部表发现无法正常读取,这个怎么解决,各位大佬?

Re: Orc文件问题请教

2020-08-19 文章 abc15606
已经找到原因了,hive on spark情况下,hive读取不了orc 发自我的iPhone > 在 2020年8月20日,14:50,Jingsong Li 写道: > > 你可以贴下异常栈, > 估计是ORC版本问题,如果你用file system的orc writer,那是比较新的版本。 > 建议你用下Hive的表来写,这样你可以选版本。 > > Best, > Jingsong > >> On Thu, Aug 20, 2020 at 12:10 PM wrote: >> >> 使用flink sql写到orc文件,以后,flink能读取出来,但是spark和hi

Orc文件问题请教

2020-08-19 文章 abc15606
使用flink sql写到orc文件,以后,flink能读取出来,但是spark和hive均不能读取出来,impala能读取。 发自我的iPhone

flink 1.11 web ui请教

2020-08-19 文章 abc15606
版本:1.11 部署:standalone 数据从kafka写到kafka 1.提交的任务包含两个维表join和两条insert 语句,但是在中间的执行图,只有一个方框。其他有些join任务会有不同的框,用hash连线表示。这是什么原因? 2.底下的 records received等几个列都是0。怎么样才会统计?

请教关闭部署的问题

2020-08-10 文章 abc15606
部署的能不能把依赖和配置文件单独出来指定,而不是打成一个jar,如果可以具体要怎么做? 发自我的iPhone

Re: stream sink hive 在hdfs ha模式下

2020-08-06 文章 abc15606
可以在flink-conf.yaml中加入 env.hadoop.conf.dir: 指向hadooo配置文件目录 发自我的iPhone > 在 2020年8月7日,00:16,Jark Wu 写道: > > 可以提供下完整的异常栈吗?以及使用的版本号和代码。 > >> On Mon, 3 Aug 2020 at 13:32, air23 wrote: >> >> hi 你好 >> 我这边集群是cdh的。 配置了hdfs ha模式 >> 在使用 kafka sink 到hive 时候找不到nameservices >> java.lang.IllegalArgumentEx