flink1.11.1,flink sql,已经实现flink sql 读取kafka,存储到hive。现在的问题是,kafka源增加字段了,flink
sql中的hive如何修改。直接在hive中增加字段的话,每次启动,会报 hive表已经存在,如果drop table if
exists的话,历史数据就会丢。请问大家是如何处理的,谢谢。



--
Sent from: http://apache-flink.147419.n8.nabble.com/

回复