Hi all,
最近再把flink任务迁移到native
k8s,发现flink-conf系列的文件没有办法很好地被修改,比如log4j文件还有一些很通用的写在flink-conf的配置项(e.g.
Prometheus配置)。
flink-conf的配置我还可以在flink run的时候带上,那log4j的配置好像没有太好的办法带上。
大家在这块有什么实践吗?thx.
--
Sent from: http://apache-flink.147419.n8.nabble.com/
SET table.sql-dialect=hive;
CREATE TABLE hive_catalog.test_db.test_insert_tb (
id BIGINT,
type INT,
user_id BIGINT,
title STRING,
ts TIMESTAMP
) PARTITIONED BY (add_date STRING, add_hour STRING) STORED AS orc
TBLPROPERTIES (
'sink.partition-commit.trigger' = 'process-time',
提交两个SQL,后面的SQL不生效,这是为什么呢?后面的看起来会变成前一个的HA。
Job1:Kafka Topic1 -> Kafka Topic2
Job2:Kafka Topic2 -> Postgre
不是很明白这个原因,是不是有哪里没配置好呢?
--
Sent from: http://apache-flink.147419.n8.nabble.com/
大家好,我通过Yarn Per
Job模式提交了两个任务,后一个提交的任务会变成前一个一样的任务,而且好像不产生实际作用(?),看起来像是在给前一个做HA,不知道是不是什么配置没搞好呢?
两个任务分别是 Kafka Topic1 -> Kafka Topic2 和 Kafka Topic2 ->
Postgre,两个任务中的Topic2用的是同一个。
之前也尝试过,Topic1同时写入Topic2和Postgre,好像也同样不会生效,这是为什么呢?
谢谢大家。
--
Sent from: http://apache-flink.147419.n8.nabble.com/
在hive catalog下创建kafka source表会在hive
metastore中创建一张仅包含元数据的表,hive不可查,flink任务中可以识别并当成hive表读,然后只需要在hive
dialect下正常读出写入即可。
参考 https://my.oschina.net/u/2828172/blog/4415970
--
Sent from: http://apache-flink.147419.n8.nabble.com/
你这没有把dialect set成hive吧,走到了else分支。default
dialect是需要指定connector的,参考文档的kafka到hive代码
https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/table/connectors/hive/hive_read_write.html#writing
--
Sent from: http://apache-flink.147419.n8.nabble.com/
只要sliding出来才满足你每分钟执行的滑动要求吧?至于你只要最早/新的某一条,你可以从window groupby得出的流再次group
by然后再用window时间筛选你要的数据。
--
Sent from: http://apache-flink.147419.n8.nabble.com/