大家好 2020年已经到来了,本周是2020年1月的第二周,虽然临近春节但 Flink 的活力丝毫没有受到影响。
本周社区主要新闻是 Flink 1.10版本的发布测试,SQL catalog 读取关系数据库 schema 的相关建议以及 Flink Forward 旧金山的演讲邀请。 Flink开发进展 ============== * [**Release**] 社区仍在测试和修复*Flink 1.10*的错误。您可以在发布燃尽板[1]上进行操作。 估计第一个 RC 版本很快就来了 [1]。 * [**SQL**] Bowen 建议在Table API中添加* JDBC 和 Postgres Catalog* API。 这样,Flink 可以自动创建关系数据库中对应的表。 目前,用户需要手动在 Flink 上创建相应的表(包括 schema)[2] & [3]。 * [**configuration**] Xintong 建议更改 Flink 内存配置的一些默认值(FLIP-49),并正在寻求反馈 [4]。 * [**datastream api**] Congxian 建议统一从 statebackends 向* AppendingState *添加“空(null)” 值的处理。 建议的原因是使所有 statebackends 拒绝“空(null)”值 [5]。 [1] https://issues.apache.org/jira/secure/RapidBoard.jspa?rapidView=349&projectKey=FLINK [2] https://cwiki.apache.org/confluence/display/FLINK/FLIP-92%3A+JDBC+catalog+and+Postgres+catalog [3] http://apache-flink-mailing-list-archive.1008284.n3.nabble.com/DISCUSS-FLIP-92-JDBC-catalog-and-Postgres-catalog-tp36505.html [4] http://apache-flink-mailing-list-archive.1008284.n3.nabble.com/Discuss-Tuning-FLIP-49-configuration-default-values-td36528.html [5] http://apache-flink-mailing-list-archive.1008284.n3.nabble.com/DISCUSS-Make-AppendingState-add-refuse-to-add-null-element-tp36493.html 需要注意的一些缺陷 ============== 由于在发布测试,因此有很多活动,但是对于已经发布的版本,没有发现任何新的显著错误。 活动,博客文章,其他 =================== ** Flink Forward 旧金山的演讲邀请*即将结束,但是您仍然有机会将演讲提交给该演讲者(可能只有)北美的 Apache Flink 社区会议。 如有疑问或如果您不确定是否要提交参与,请随时与 Konstantin 联系 [6]。 * [**即将举行的聚会**] * 1月18日* Preetdeep Kumar *将分享一些基本的 Flink DataStream processing API,然后进行动手演示。 这将是在线活动。 在会议链接中可以查看更多详细信息 [7]。 * 1月22日 Konstantin 的同事 *Alexander Fedulov * 将在马德里的 Apache Flink 聚会上使 Flink 进行欺诈检测[8]。 [6] https://www.flink-forward.org/sf-2020 [7] https://www.meetup.com/Hyderabad-Apache-Flink-Meetup-Group/events/267610014/ [8] https://www.meetup.com/Meetup-de-Apache-Flink-en-Madrid/events/267744681/ 中文邮件问题答疑汇总 =================== * Flink 的 savepoint 为什么要设置成手动的?的问题解答:[9] * Flink 消费 Kafka 没有数据问题的问题解答:[10] * 关于 Flink 集群中调用 dubbo 服务的咨询:[11] * 关于 Flink Plan Visualizer 什么时候会更新成1.9的样式的问题,tison 已经抄送给 Flink WebUI 重构的 Manager:[12] * Flink 的每条数据既然都做了 checkpoint,做成全局分布式一致性快照,那还需要本地 state干啥呢?的问题解答:[13] * 关于 Flink 遇到 valueState 自身的 NPE 的问题解答:[14] * 关于流处理任务失败该如何追回之前的数据的问题解答:[15] * 关于 Flink 是否可以通过代码设置 hadoop 的配置文件目录的问题解答:[16] * 关于 Flink 算子状态查看的问题解答:[17] * 关于疑似 ParquetTableSource Filter Pushdown bug 的问题解答:[18] * 关于 Flink 1.10版本连接hive报错的问题解答:[19] * 关于 Flink 不同 StateBackend ProcessWindowFunction 的差别的问题解答:[20] * 关于 Jobgraph 生成的问题解答:[21] * 关于注册 table 时 catalog 无法变更的问题解答:[22] * 关于 Flink sql confluent schema avro topic 注册成表的问题解答:[23] * 使用 Flink SQL时,碰到的【Window can only be defined over a time attribute column】的问题解答:[24] * 关于如何获取算子处理一条数据记录的时间的问题解答:[25] [9] http://apache-flink.147419.n8.nabble.com/flink-savepoint-checkpoint-td1229.html [10] http://apache-flink.147419.n8.nabble.com/flink-Kafka-td1461.html [11] http://apache-flink.147419.n8.nabble.com/flink-dubbo-td1467.html [12] http://apache-flink.147419.n8.nabble.com/Flink-Plan-Visualizer-1-9-td1404.html#a1429 [13] http://apache-flink.147419.n8.nabble.com/checkpoint-state-td1122.html [14] http://apache-flink.147419.n8.nabble.com/flink-valueState-NPE-td1447.html#a1459 [15] http://apache-flink.147419.n8.nabble.com/-td1016.html [16] http://apache-flink.147419.n8.nabble.com/flink-hadoop-td1445.html [17] http://apache-flink.147419.n8.nabble.com/flink-td1441.html [18] http://apache-flink.147419.n8.nabble.com/Re-ParquetTableSource-Filter-Pushdown-bug-tt1439.html [19] http://apache-flink.147419.n8.nabble.com/flink1-10-hive-tt336.html [20] http://apache-flink.147419.n8.nabble.com/FLINK-StateBackend-ProcessWindowFunction-tt1418.html#a1419 [21] http://apache-flink.147419.n8.nabble.com/Re-jobgraph-tt1426.html [22] http://apache-flink.147419.n8.nabble.com/table-catalog-tt1417.html#a1425 [23] http://apache-flink.147419.n8.nabble.com/flink-sql-confluent-schema-avro-topic-tt1264.html [24] http://apache-flink.147419.n8.nabble.com/Flink-SQL-Window-can-only-be-defined-over-a-time-attribute-column-tt1407.html [25] http://apache-flink.147419.n8.nabble.com/-tt1357.html#a1412 祝好 徐前进