退订

2021-03-29 文章 于林之下
退订 | | 于林之下 | | 邮箱:sishengqikuo...@163.com | 签名由 网易邮箱大师 定制

Re:回复:flink 从mysql读取数据异常

2021-03-29 文章 air23
这边是想离线读取。不是走实时的 看到异常是 Only insert statement is supported now 在 2021-03-30 10:31:51,"guoyb" <861277...@qq.com> 写道: >可以读取的,还有内置flink cdc >select得用query方法,看看是不是用错了execute。 > > > >---原始邮件--- >发件人: "air23"发送时间: 2021年3月30日(周二) 上午10:25 >收件人: "user-zh"主题: flink 从mysql读取数据异常 > > >你好 参考官网

????

2021-03-29 文章 Tent

退订

2021-03-29 文章 徐永健
退订

Re: flink Container exited with a non-zero exit code 2. Error file: prelaunch.err. Last 4096 bytes of prelaunch.err

2021-03-29 文章 Yang Wang
这样的报错多半是Flink的JM/TM进程就没有被Yarn正常拉起,你查看Yarn的NodeManager日志 搜索对应的container,应该会有一些线索的 Best, Yang flink2021 于2021年3月30日周二 上午9:40写道: > 实时作业运行一段时间后报错: > Container exited with a non-zero exit code 2. Error file: prelaunch.err. > Last 4096 bytes of prelaunch.err > 具体原因是什么呢?有哪位大佬帮忙看看呢,日志中只有这条错误提示,其它没有。 >

Re: flink-1.12.2 TM无法使用自定的serviceAccount访问configmap

2021-03-29 文章 Yang Wang
我可以确认1.12.1和1.12.2已经修复,如果还是不能正常使用,麻烦发一下启动命令以及对应的TM报错日志 Best, Yang 1120344670 <1120344...@qq.com> 于2021年3月29日周一 下午5:09写道: > 您好: >之前提交过一个关于这方面的issue,链接如下: > http://apache-flink.147419.n8.nabble.com/flink1-12-k8s-session-TM-td10153.html >目前看还是没有fix对应的issue。 > >报错如下: > > >

flink-sql ??????????execution.target: yarn-per-job ????????????????????????????

2021-03-29 文章 ????
1??yarn-session?? 2??yarn-perjob?? -- ?? Caused by: java.util.concurrent.TimeoutException: Heartbeat of TaskManager with id container_e66_1616483562588_2358_01_02() timed out. at

Re: 【疑问】RocksDBStateBackend为什么使用单独封装的frocksdbjni,而不用RocksDB官方提供的RocksJava

2021-03-29 文章 Yun Tang
Hi Feifan, 主要原因是为了支持TTL state的compaction filter [1],因为属于定制化内容,RocksDB社区无法纳入主分支,我们后续也在考虑采用插件化形式,复用RocksDB社区的原生RocksJava。当然,现在还有个棘手的问题是RocksJava在5.18 之后存在性能回退,导致目前无法直接升级。你可以关注 FLINK-14482 跟踪后续的发展 [1] https://github.com/ververica/frocksdb/commit/01dca02244522e405c9258000903fee81496f72c [2]

(无主题)

2021-03-29 文章 于林之下
TD | | 于林之下 | | 邮箱:sishengqikuo...@163.com | 签名由 网易邮箱大师 定制

flink 从mysql读取数据异常

2021-03-29 文章 air23
你好 参考官网 https://ci.apache.org/projects/flink/flink-docs-release-1.12/zh/dev/table/connectors/jdbc.html 这边读取mysql jdbc数据报错Exception in thread "main" org.apache.flink.table.api.TableException: Only insert statement is supported now. String a = "-- register a MySQL table 'users' in Flink SQL\n"

回复:flink 从mysql读取数据异常

2021-03-29 文章 guoyb
可以读取的,还有内置flink cdc select得用query方法,看看是不是用错了execute。 ---原始邮件--- 发件人: "air23"https://ci.apache.org/projects/flink/flink-docs-release-1.12/zh/dev/table/connectors/jdbc.html 这边读取mysql jdbc数据报错Exception in thread "main" org.apache.flink.table.api.TableException: Only insert statement is supported

flink 从mysql读取数据异常

2021-03-29 文章 air23
你好 参考官网 https://ci.apache.org/projects/flink/flink-docs-release-1.12/zh/dev/table/connectors/jdbc.html 这边读取mysql jdbc数据报错Exception in thread "main" org.apache.flink.table.api.TableException: Only insert statement is supported now. String a = "-- register a MySQL table 'users' in Flink SQL\n"

回复:Flink Window算子在WebUI中Bytes/Records Sent为0

2021-03-29 文章 allanqinjy
你的图看不到,我猜到的是你window之后是一个算子链,最后是sink了,所以bytes sent是0,sink后应该就不属于flink的管辖范围了,所以sent是0。你可以设置disableOperatorChaining()一下,然后你在window完后,再map算子一下,就能看到window后面有没有sent了。 | | allanqinjy | | allanqi...@163.com | 签名由网易邮箱大师定制 在2021年03月30日 09:37,王 浩成 写道:

flink Container exited with a non-zero exit code 2. Error file: prelaunch.err. Last 4096 bytes of prelaunch.err

2021-03-29 文章 flink2021
实时作业运行一段时间后报错: Container exited with a non-zero exit code 2. Error file: prelaunch.err. Last 4096 bytes of prelaunch.err 具体原因是什么呢?有哪位大佬帮忙看看呢,日志中只有这条错误提示,其它没有。 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Flink Window算子在WebUI中Bytes/Records Sent为0

2021-03-29 文章 王 浩成
你好,我有下图这样的一个数据流图,以csv文件作为数据源生成数据流,数据流的时间跨度约15分钟,时间窗口设定为1分钟。 使用单节点提交Flink Job之后,在Web UI界面发现从Window算子开始,后面的Bytes Sent全部为0B了,可是实际上window算子及其后面的算子都进行了相应的操作,并且生成了对应的数据结果。 请问这里是为什么出现了这个问题,如何让它能像我想象的显示发送的数据量?谢谢! [表格 描述已自动生成]

Flink任务中写Kafka超时导致任务超时

2021-03-29 文章 Frost Wong
各位好, 我的Flink任务中有写Kafka的操作,最近发现当写的这个Kafka整体QPS很高时,响应时间也会很长。我的核心逻辑是继承了RichFlatMapFunction,在flatMap方法中调用KafkaProducer.produce(),在方法最后调用KafkaProducer.flush()。 我知道调用KafkaProducer.flush()可能会很耗时,但我的业务不允许数据丢失,我考虑把KafkaProducer.flush()放在RichFlatMapFunction的close()方法中。不知道这个close()方法是什么时候调用的。 我的问题是:

union operation cannot support data type : map on flink 1.12

2021-03-29 文章 张颖
this is the error message: Flink SQL> (SELECT number_feature FROM map_string_string1) UNION (SELECT number_feature FROM map_string_string2); 2021-03-29 16:57:15,479 INFO org.apache.hadoop.hive.metastore.HiveMetaStoreClient [] - Trying to connect to metastore with URI

Re:image

2021-03-29 文章 张颖
this is the contents of this image: Flink SQL> (SELECT number_feature FROM map_string_string1) UNION (SELECT number_feature FROM map_string_string2); 2021-03-29 16:57:15,479 INFO org.apache.hadoop.hive.metastore.HiveMetaStoreClient [] - Trying to connect to metastore with URI

Re:image

2021-03-29 文章 张颖
this is the image: At 2021-03-29 17:42:05, "张颖" wrote: hello, I meet a problem just like this: My flink version is 1.12.0,and I change the version to 1.12.3, the problem still exist. I create two tables which have data type map, I want to union two tables to one, but when i

Re:image

2021-03-29 文章 张颖
At 2021-03-29 17:42:05, "张颖" wrote: hello, I meet a problem just like this: My flink version is 1.12.0,and I change the version to 1.12.3, the problem still exist. I create two tables which have data type map, I want to union two tables to one, but when i run on sql-client, I

Re:退订

2021-03-29 文章 张颖
什么意思?直接退订吗? 在 2021-03-29 17:44:22,"纪军伟" 写道: >退订

Re:退订

2021-03-29 文章 张颖
什么意思?直接退订吗? 在 2021-03-29 17:44:22,"纪军伟" 写道: >退订

??????????

2021-03-29 文章 ????
---- ??: "??"

退订

2021-03-29 文章 纪军伟
退订

回复:flink 1.11 cp size越来越大

2021-03-29 文章 Shuai Xia
Hi,有看过HDFS上真实的CK文件大小么,可以参考下这个邮件 http://apache-flink.147419.n8.nabble.com/Flink-sql-checkpoint-td10176.html#a10200 -- 发件人:liangji 发送时间:2021年3月26日(星期五) 16:39 收件人:user-zh 主 题:flink 1.11 cp size越来越大 读取kafka数据写入mysql 1、部分代码如下

flink-1.12.2 TM??????????????serviceAccount????configmap

2021-03-29 文章 1120344670
: ??issue??:http://apache-flink.147419.n8.nabble.com/flink1-12-k8s-session-TM-td10153.html ??fix??issue?? : ??jiraissue

Re: Re:flink 1.11.1 使用mysql作为维表进行temporal join时,偶尔会报超时异常导致数据更新失败,请教解决方案

2021-03-29 文章 suisuimu
Hi,我使用的1.12也出现了这个问题,请问你怎么解决的呢? -- Sent from: http://apache-flink.147419.n8.nabble.com/

????

2021-03-29 文章 ????????

转发:在FlinkKafkaProducer获取sink表的建表key

2021-03-29 文章 Jimmy Zhang
| Best, Jimmy | Signature is customized by Netease Mail Master - 转发的邮件 - 发件人: Jimmy Zhang 发送日期: 2021年03月29日 14:05 收件人: Qishang 抄送人: 主题: 回复:在FlinkKafkaProducer获取sink表的建表key Hi,Qiishang,非常感谢你的回复,我看了你说的代码,应该是可以解决我的需求,不过我还没有细看,因为本身这个需求可能涉及Dynamic这块不多。 另外,我已经通过这种方法成功解决该问题。