回复:阿里云oss

2021-04-15 文章 superainbower
已解决 | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制 在2021年04月15日 15:38,superainbower 写道: Hi,请教一下大家,本地环境仅部署了Flink集群,没有Hadoop环境,按照官网在plugins中新增目录添加flink-oss*.jar,在flink-conf.yml中添加fs.oss相关配置 还需要做什么才可以正常读写oss呢,目前现在在sqlclient中,会提示No FileSystem for scheme: oss | | superainbower

阿里云oss

2021-04-15 文章 superainbower
Hi,请教一下大家,本地环境仅部署了Flink集群,没有Hadoop环境,按照官网在plugins中新增目录添加flink-oss*.jar,在flink-conf.yml中添加fs.oss相关配置 还需要做什么才可以正常读写oss呢,目前现在在sqlclient中,会提示No FileSystem for scheme: oss | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制

Re: Temproal Tables

2021-03-16 文章 superainbower
这个问题我解决了,这样定义应该是可以 On 03/16/2021 15:11, superainbower wrote: 请教下大家,官网中对于时态表的定义的案例是基于debezium的,我现在具基于canal这样定义有问题吗?定义如下 create table produce( id string, name string, price decimal(10,4) update_time timestamp(3) metadata from ‘timestamp’ virtual, primary key(id) not enforced, watermark

Temproal Tables

2021-03-16 文章 superainbower
请教下大家,官网中对于时态表的定义的案例是基于debezium的,我现在具基于canal这样定义有问题吗?定义如下 create table produce( id string, name string, price decimal(10,4) update_time timestamp(3) metadata from ‘timestamp’ virtual, primary key(id) not enforced, watermark for update_time as update_time )with( ‘connector’=‘Kafka’,

如何定义时态表

2021-03-10 文章 superainbower
件时间 )WITH('connector'='kafka','topic'='products','scan.startup.mode'='earliest-offset','properties.bootstrap.servers'='localhost:9092','value.format'='canal-json'); | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制

回复:flink1.12 k8s session部署,TM无法启动

2021-01-14 文章 superainbower
大佬,可否提供一下你那边flink native 方式 k8s部署的测试文档地址 在2021年01月14日 15:12,Yang Wang 写道: 这个问题是在1.12.1中修复的,1.12.0里面还不能支持给TM设置ServiceAccount 具体可以看下这个ticket,https://issues.apache.org/jira/browse/FLINK-20664 另外,1.12.1正在投票,最近就会发布 Best, Yang 1120344670 <1120344...@qq.com> 于2021年1月13日周三 下午5:17写道: > *flink版本: 1.12*

回复:自定义Connector 报错

2020-12-30 文章 superainbower
or included in the client JAR because it's part of the public API,这应该就是Flink集群里不包含这个pulbic API 导致这个报错 | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制 在2020年12月30日 19:16,superainbower 写道: 补充一下,在git上Cloudera/kudu 下的 org.apache.kudu.client.AsyncKuduClient这个类里面,确实看到 import

回复:自定义Connector 报错

2020-12-30 文章 superainbower
补充一下,在git上Cloudera/kudu 下的 org.apache.kudu.client.AsyncKuduClient这个类里面,确实看到 import com.stumbleupon.async.Callback 应该就是kudu需要引入的,很奇怪已经将整个client的jar 放到lib里面了,怎么还会缺少呢 | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制 在2020年12月30日 18:59,superainbower 写道: hi, 1.在kudu-client.jar里,按你的方式grep不到

回复:自定义Connector 报错

2020-12-30 文章 superainbower
,可以判空下。 Best, Hailong 在 2020-12-30 17:24:48,"superainbower" 写道: >HI,大家好: >我有一个应用场景,利用Flinksql读取Kafka数据写入Kudu,由于官方没有Kudu Connector,自定义了一个Kudu Sink >Connector,在本地IDEA下测试可以 正常跑通; >可是将代码打包,并将kudu-client.jar的依赖包放置Flink的lib目录下之后,提交任务到集群报错如下: > > >java.lang.NoClassDefFo

自定义Connector 报错

2020-12-30 文章 superainbower
) ~[?:1.8.0_162] ... 14 more 不是很清楚这个 com.stumbleupon.async.Callback 类的依赖来自哪里,该怎么解决? | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制

求和统计后的数据格式-科学计数法

2020-12-28 文章 superainbower
charge_income":5013.8,"charge_count":432} {"stats_key”:”456","charge_number":6E+2,"charge_duration":675,"charge_income":45,"charge_count":3} 存在了这样的科学计数法 6E+2,这个该怎么转换成具体数值呢?不然后续不好处理 | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制

??????flink-shaded-hadoop-2-uber????????????

2020-12-22 文章 superainbower
K8SHA??HDFS ??2020??12??22?? 13:43??liujian ?? Thanks,flink-confhistory server,??hdfs??,??web ui??, ---- ??:

回复:flink1.12 docker 镜像啥时候有

2020-12-17 文章 superainbower
Best, Yang superainbower 于2020年12月17日周四 上午7:19写道: > 请教下 git checkout dev-master./add-custom.sh -u > https://apache.website-solution.net/flink/flink-1.12.0/flink-1.12.0-bin-scala_2.11.tgz > -n flink-1.12.0 这是一条指令吗?感觉执行不了 > 另外直接 > git clone https://github.com/apache/flink-docker.g

回复: flink1.12 docker 镜像啥时候有

2020-12-17 文章 superainbower
le LD_PRELOAD with /usr/lib/x86_64-linux-gnu/libjemalloc.so" export LD_PRELOAD=$LD_PRELOAD:/usr/lib/x86_64-linux-gnu/libjemalloc.so fi } 另外我看了1.12的文档,yaml文件和1.11应该没有区别,原先的yaml文件在1.11.1的版本是可以正常执行的 | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制 在2020年12月17日 14:08,Yang Wang 写道: 你直接

回复:flink1.12 docker 镜像啥时候有

2020-12-16 文章 superainbower
请教下 git checkout dev-master./add-custom.sh -u https://apache.website-solution.net/flink/flink-1.12.0/flink-1.12.0-bin-scala_2.11.tgz -n flink-1.12.0 这是一条指令吗?感觉执行不了 另外直接 git clone https://github.com/apache/flink-docker.git 在里面的1.12目录中选择2.11的进去,直接dock build -t flink:1.12.0 .可以吗,我尝试直接这样构建出来的镜像好像不能跑

回复:flink-shaded-hadoop-2-uber版本如何选择

2020-12-16 文章 superainbower
借楼请问下,部署到K8S上怎么访问HDFS呢,目前我还是把shaded的jar打到镜像里面去 在2020年12月16日 10:53,Yang Wang 写道: 以flink-shaded-hadoop-2-uber的2.8.3-10.0为例 2.8.3指的hadoop的版本,10.0指定的flink-shaded[1]的版本 社区从1.10开始不再推荐使用flink-shaded-hadoop的方式,而且通过设置HADOOP_CLASSPATH环境变量来提交[2], 这样可以让Flink变得hadoop free,从而同时支持hadoop2和hadoop3

回复:flink1.11连接mysql问题

2020-10-14 文章 superainbower
HI 链接超时的问题,你后来解决了吗?能告诉下怎么解决的吗? | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制 在2020年08月31日 15:57,酷酷的浑蛋 写道: 关键是在sql中怎么设置,connector=jdbc 在2020年08月31日 15:06,13580506953<13580506...@163.com> 写道: 这个问题本质是连接活性问题, 连接数据库超时设置autoReconnect=true(mysql5以上的,设置autoReconnect=true 是无效的 只有4.x

回复: Flink on K8s statebackend 配置

2020-10-12 文章 superainbower
Hi 感谢回复,我去看下 | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制 在2020年10月12日 17:09,Congxian Qiu 写道: Hi 从错误日志看,应该是 filesystem 相关的配置(或者 jar 包)有问题,可以参考下这个邮件列表[1]看看能否解决你的问题 [1] http://apache-flink.147419.n8.nabble.com/Flink-1-11-1-on-k8s-hadoop-td5779.html#a5834 Best, Congxian

回复:Flink on K8s statebackend 配置

2020-09-30 文章 superainbower
supported by Flink and no Hadoop file system to support this scheme could be loaded. For a full list of supported file systems, please seehttps://ci.apache.org/projects/flink/flink-docs-stable/ops/filesystems/. 应该是没有Hadoop的路径,这个在K8s下面 该怎么去配置呢 | | superainbower | | superainbo...@163.com | 签名由网易

Flink on K8s statebackend 配置

2020-09-30 文章 superainbower
Hi,all 请教下,哪个朋友知道Flink on K8s上做 statebackend 配置,除了将下列配置写到flink-conf.yml里,还需要作哪些工作? state.backend: rocksdb state.checkpoints.dir: hdfs://master:8020/flink/checkpoints state.savepoints.dir: hdfs://master:8020/flink/savepoints state.backend.incremental: true | | superainbower | | superainbo

flink on yarn NM JVM内存

2020-09-23 文章 superainbower
影响到Nodemanger的JVM内存,另外任务已经停掉,JVM堆内存也下不来,这块会和rocksdb有关系吗? | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制

????????????checkpoint????????????

2020-09-08 文章 superainbower
hi ?? | | superainbower | | superainbo...@163.com | ?? ??2020??09??9?? 10:19??superainbower ?? HI metadata | | | importorg.apache.flink.runtime.checkpoint.savepoint.Savepoint

????????????checkpoint????????????

2020-09-08 文章 superainbower
HI metadata | | | importorg.apache.flink.runtime.checkpoint.savepoint.Savepoint; ??savepoint flink1.11.1 | | | | | superainbower | | superainbo...@163.com

请教个checkpoint目录删除问题

2020-09-08 文章 superainbower
hi,请教个问题,statebackend是rocksdb,flink-conf.yaml文件里state.backend.incremental:true,当在hdfs上有个checkpoint目录,做完checkpoint的时候停掉任务,修改了代码重启任务,指定上次的checkpoint的目录位置,这时候新任务作完checkpoint以后,之前的那个checkpoint的目录 可以删除吗?因为配置了增量checkpoint,不知道之前任务的checkpoint目录对新任务是否还有用

回复: 请指教一个关于时间窗的问题,非常感谢!

2020-09-04 文章 superainbower
1.11的版本已经加入了 新的配置项,避免了数据倾斜导致某个分区没数据 而不触发计算的问题 | | superainbower | | superainbo...@163.com | 签名由网易邮箱大师定制 在2020年09月4日 15:11,taochanglian 写道: 确实是这样,比如有你多个partition,但是只有1个partition里面有数据,wm就不会执行计算。需要保证多个parititon数据都有数据。 举个例子,我这里在做测试的时候,1个topic10个partition,由于测试环境,按照key hash,数据只进入1个partition,就不会触发计算

Flink on k8s

2020-09-01 文章 superainbower
hi,我在尝试flink on k8s部署,搭建了minikube,按照官方文档部署之后 1.在flink ui界面 看不到taskmanger的信息,任务提交的时候会提示没有slot,像是taskmanger没有注册到jobmanger 2.k8s dashboard上,taskmanger过不了一会就重启 请问下大家有遇过吗?不知道该怎么排查解决

增量che ckpoint

2020-08-19 文章 superainbower
hi,请教大家一个问题,开启了增量checkpoint,同时checkpoint的个数设置为只保留2个,那么如果当前是第三次checkpoint 仍然依赖第一次的checkpoint会出现什么情况,会把第一次的copy过来到本次中吗?如过第一次不删除,不是会不满足保留2个的限制吗

flink sql 如何指定之前的checkpoint执行

2020-08-18 文章 superainbower
hi,大家好,我遇到个问题,执行一个sql,作了checkpoint,现在sql中加了where条件,但是insert select 的值都没变,想指定之前的checkpoint继续执行,但是会报错,cannot map checkpoint state for operator *** to the new programe 是不是因为sql改变了,算子id就变了找不到了,这个有什么办法吗

(无主题)

2020-08-16 文章 superainbower
hi,社区的小伙伴,大家好!我有一个应用场景,想请教下大家有没有遇过,有什么好的方案。 场景就是:按照user和day的维度统计订单表里的有效订单数,同时存在历史的订单状态随时可能被更新,比如可能当前把2个月前的订单状态置未true,所以没法根据历史结果预统计,翻译称sql就是select user,day,count(*) from table where state = true group by user,day;目前我已经用flink-sql-cdc-connector实现了,但是有一个问题就是state,因为按user day组合