flink在k8s上部署,如何修改默认的lib目录

2021-04-18 Thread cxydeve...@163.com
默认的lib路径是/opt/flink/lib 现在我无法操作/opt/flink/lib, 但是又想往里面放东西,所以想请教是否可以修改在flink-conf.yaml指定lib路径? -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: 请问flink1.11版本如何设置checkpoint的默认保存个数

2020-10-25 Thread cxydeve...@163.com
知道问题所在了,那个在配置文件中设置state.checkpoints.num-retained是生效的 在webui,任务checkpoint的history中总是显示10条最新的记录(我以为就是一定是保留了最新的10份数据), 但是其实真正持久化有数据的数目是根据state.checkpoints.num-retained的值 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: flink1.11加载外部jar包进行UDF注册

2020-10-15 Thread cxydeve...@163.com
我们用方法是通过反射设置env的配置,增加pipeline.classpaths 具体代码如下 public static void main(final String[] args) throws Exception { StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); EnvironmentSettings settings =

Re: flink1.11.2webui界面中的任务详情页面获取不到任务的received和sent数据详情

2020-10-14 Thread cxydeve...@163.com
嗯嗯,看到了,才发现还有这个地方可以看 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: flink1.11.2webui界面中的任务详情页面获取不到任务的received和sent数据详情

2020-10-14 Thread cxydeve...@163.com
好的,谢谢 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: flink1.11.2webui界面中的任务详情页面获取不到任务的received和sent数据详情

2020-10-13 Thread cxydeve...@163.com
我好像悟了,试了一下stream api 不同的并行度 , source节点的输出其实就是整个job的输入 sink节点的输入就是整个job的输出 flink在统计这些节点的时候 , 是没有统计开头结尾 但是还不知道flinksql如何设置不同的并发 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: flink1.11.2webui界面中的任务详情页面获取不到任务的received和sent数据详情

2020-10-13 Thread cxydeve...@163.com
我用的是flinksql , 不过以我的理解, 一个节点不是应该也有输入输出吗, 想问下这有对应的文档吗 详细代码 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); EnvironmentSettings settings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build(); StreamTableEnvironment

Re: flink1.11.2 在k8s上部署,如何启动history server

2020-10-10 Thread cxydeve...@163.com
目前自己的解决方案是像之前版本1.10类似 . "containers": [ { "name": "jobmanager", "image": "flink:1.11.2-scala_2.11", "command": [ "/bin/bash", "-c", "/opt/flink/bin/historyserver.sh start;/docker-entrypoint.sh jobmanager;"

Re: flink1.11.2基于官网在k8s上部署是正常的,但是加了volume配置之后报错Read-only file system

2020-10-09 Thread cxydeve...@163.com
问题已经解决,挂载的lib目录是之前1.10版本的jar包,然后简单把flink1.10的一些jar包换成1.11版本, 结果没有替换干净, 所以导致启动不了. 把挂载目录里面全部删除,换成标准的lib, 再添加自己需要的jar就可以正常启动. -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: Re: flink使用在docker环境中部署出现的两个问题

2020-09-29 Thread cxydeve...@163.com
你好,我这边看到您在另一个问题[1]中有做了相关的回答, 我在k8s上部署是遇到相同的问题,相同的错误,您这边是否有空帮忙试试看是不是flink-docker的bug, 还是我的什么配置错了 我也发出了一个新的问题[2] [1]:http://apache-flink.147419.n8.nabble.com/flink-1-11-on-kubernetes-td4586.html#a4692

Re: flink1.11.2基于官网在k8s上部署是正常的,但是加了volume配置之后报错Read-only file system

2020-09-29 Thread cxydeve...@163.com
官网例子[1]没有改动之前,是可以正常启动的 原来的配置文件内容如下 ... "volumes": [ { "name": "flink-config-volume", "configMap": { "name": "flink-config", "items": [ { "key": "flink-conf.yaml", "path": "flink-conf.yaml" },

Re: Re: flink使用在docker环境中部署出现的两个问题

2020-09-28 Thread cxydeve...@163.com
好的明白,谢谢大佬 -- Sent from: http://apache-flink.147419.n8.nabble.com/