现在可以用中文了?就是opt目录里面的gateway.jar直接编辑Factory文件把connector注册就行了
> 在 2024年5月15日,15:36,Xuyang 写道:
>
> Hi, 看起来你之前的问题是jdbc driver找不到,可以简单描述下你的解决的方法吗?“注册connection数的数量”有点不太好理解。
>
>
>
>
> 如果确实有类似的问题、并且通过这种手段解决了的话,可以建一个improvement的jira issue[1]来帮助社区跟踪、改善这个问题,感谢!
>
>
>
>
> [1] https://issues.apache
I've solved it. You need to register the number of connections in the jar of
gateway. But this is inconvenient, and I still hope to improve it.
发自我的 iPhone
> 在 2024年5月10日,11:56,Xuyang 写道:
>
> Hi, can you print the classloader and verify if the jdbc connector exists in
> it?
>
>
>
>
> --
>
使用flink 1.11.2
启动任务的时候报
getMetricGroup is not supported when optimizing
请问各位大佬,怎么解决好?
发自我的iPhone
应该是状态大,超时设了10分钟,还没有达到超时时间。到处找不到相关日志。
发自我的iPhone
> 在 2021年1月6日,10:03,赵一旦 写道:
>
> 没日志咋排查,为啥失败总得说下。超时的话可能就是任务压力大,状态大等。
>
> 于2021年1月6日周三 上午9:53写道:
>
>> flink 1.11.2环境下,三个kafka topic 的数据进行join,出现checkpoint失败,没有日志,请问怎么排查?
>>
>> 发自我的iPhone
flink 1.11.2环境下,三个kafka topic 的数据进行join,出现checkpoint失败,没有日志,请问怎么排查?
发自我的iPhone
好的,谢谢。主要是hive streaming这块。
发自我的iPhone
> 在 2020年8月26日,18:34,Yun Tang 写道:
>
> 可以参照 https://flink.apache.org/downloads.html#all-stable-releases
> 的历史发布记录,一般是3个月左右,也就是大约10月底。
>
> 1.11.2 有什么特别期待的bug fix么?
>
> 祝好
> 唐云
>
>
>
>
> From: abc15...@163.com
> Sent: W
1.11.2大概什么时候发布?
在flink1.11中使用table sql写入时,有一些字段为空时,依然被写入到elasticsearch,这个方式应该不太恰当。
在内网,弄不出来。数组业界,在OrcFile$WriterVersion.from(OrcFile.java:145)
目前升级hive到2.3能正常用了,因为从hive2.3开始有独立的orc-core jar了。但是我们用的是CDH,这样子管理不太方便。
发自我的iPhone
> 在 2020年8月21日,16:18,Rui Li 写道:
>
> 是说写数据用的是flink的FileSystem connector,然后读数据是用hive自己去读的?具体错误的stacktrace贴一下看看呢
>
>> On Fri, Aug 21, 2020 at 3:05 PM wrot
flink table
sql把mysql的表数据写到hdfs的路径上,存成orc。hive创建外部表,查询报错。最根本原因是hive2.1是把orc的相关类打包一起的,包名举例,org.apache.hive.orc.,而且新版的是org.apache.orc.。
发自我的iPhone
> 在 2020年8月21日,14:37,Rui Li 写道:
>
> Hi,
>
> 能不能具体描述一下你的作业是怎么写的?比如怎么创建的hive表,如何把数据写进去之类的。我们可以试试能不能重现你的问题
>
>> On Fri, Aug 21, 2020 at 1:41
试过了,一样的,本质也是通过写文件。
发自我的iPhone
> 在 2020年8月21日,13:35,Jingsong Li 写道:
>
> 是的
>
>> On Fri, Aug 21, 2020 at 1:30 PM wrote:
>>
>> flink hive表的方式是什么意思?hive streaming吗?
>>
>> 发自我的iPhone
>>
在 2020年8月21日,13:27,Jingsong Li 写道:
>>>
>>> Flink filesystem connector 或者 DataStream用flink-orc
>> 的版本
flink hive表的方式是什么意思?hive streaming吗?
发自我的iPhone
> 在 2020年8月21日,13:27,Jingsong Li 写道:
>
> Flink filesystem connector 或者 DataStream用flink-orc 的版本是比较新的版本,所以老版本的ORC读不了。
>
> 建议你用Flink hive表的方式来写orc
>
>> On Fri, Aug 21, 2020 at 12:25 PM wrote:
>>
>> Flink是指定orc版本的,并没有用hive的。所以写进去之后,hive读不出来。
>>
Flink是指定orc版本的,并没有用hive的。所以写进去之后,hive读不出来。
发自我的iPhone
> 在 2020年8月21日,12:15,Jingsong Li 写道:
>
> 如果是hive table的写,flink sql是使用hive对应版本的orc的,所以理论上效果和hive sql写orc是一样的。
> 确定这个版本hive写出的数据可以被读取吗?
>
>> On Fri, Aug 21, 2020 at 10:17 AM wrote:
>>
>> 使用版本是flink 1.11
>> Hive 2.1.1
>> flink sql写到orc后,创建外
使用版本是flink 1.11
Hive 2.1.1
flink sql写到orc后,创建外部表发现无法正常读取,这个怎么解决,各位大佬?
已经找到原因了,hive on spark情况下,hive读取不了orc
发自我的iPhone
> 在 2020年8月20日,14:50,Jingsong Li 写道:
>
> 你可以贴下异常栈,
> 估计是ORC版本问题,如果你用file system的orc writer,那是比较新的版本。
> 建议你用下Hive的表来写,这样你可以选版本。
>
> Best,
> Jingsong
>
>> On Thu, Aug 20, 2020 at 12:10 PM wrote:
>>
>> 使用flink sql写到orc文件,以后,flink能读取出来,但是spark和hi
使用flink sql写到orc文件,以后,flink能读取出来,但是spark和hive均不能读取出来,impala能读取。
发自我的iPhone
版本:1.11
部署:standalone
数据从kafka写到kafka
1.提交的任务包含两个维表join和两条insert
语句,但是在中间的执行图,只有一个方框。其他有些join任务会有不同的框,用hash连线表示。这是什么原因?
2.底下的 records received等几个列都是0。怎么样才会统计?
部署的能不能把依赖和配置文件单独出来指定,而不是打成一个jar,如果可以具体要怎么做?
发自我的iPhone
可以在flink-conf.yaml中加入 env.hadoop.conf.dir: 指向hadooo配置文件目录
发自我的iPhone
> 在 2020年8月7日,00:16,Jark Wu 写道:
>
> 可以提供下完整的异常栈吗?以及使用的版本号和代码。
>
>> On Mon, 3 Aug 2020 at 13:32, air23 wrote:
>>
>> hi 你好
>> 我这边集群是cdh的。 配置了hdfs ha模式
>> 在使用 kafka sink 到hive 时候找不到nameservices
>> java.lang.IllegalArgumentEx
19 matches
Mail list logo