如果使用了Hive catalog,我创建一个流式表,然后返回基于同一个HiveCatalog的spark-sql中,那个表能看到吗?如果尝试查询是不是会出错?
无法实验:我现在还没搞定,因为简单的配置ok,连接到了hive metastore,也通过 show 
tables看到了表,但select会出错(这个问题后续再说,现在就是想知道这种基于已有catalog的情况时是不是不太好,比较flink-sql特有流表)。

在 2020/8/10 下午8:24,“Danny Chan”<yuzhao....@gmail.com> 写入:

    你好 ~
    
    1. 你是只文档结构吗 ?catalog 是 flink SQL 管理表元数据信息的组件,通过注册 catalog 用户可以直接访问 catalog 
中的已存表,当然用户也可以通过 CREATE TABLE DDL 来创建对应的 connector 表
    2. 访问 hive metastore 中的表示一定要用 hive catalog 的,如果是新建临时表(不持久化),也可以使用内置的 catalog
    
    Best,
    Danny Chan
    在 2020年8月10日 +0800 PM8:14,Zhao,Yi(SEC) <zhaoy...@baidu.com>,写道:
    > 1 为什么flinksql 1.11中,JDBC 
Catalog通过简单的链接转给了connector,catalog和connector并不是同一个概念。我认为应该将jdbc connectior和jdbc 
catalog分开放入各自目录。
    >
    > 2 为什么flinksql1.11中,connector部分没有hive connector。而是在hive 
integration部分,以及catalogs中介绍。而且在 Table API & SQL/Hive Integration/Hive Read & 
Write 部分,第一句是“Using the HiveCatalog and Flink’s connector to Hive, Flink can 
read and write from Hive data as an alternative to Hive’s batch 
engine.”。难道不使用hivecatalog就不能读取hive数据?是这个意思嘛。感觉好像意思是hive读取特别,这种情况必须使用hive 
catalog。不可以使用jdbc catalog,但使用hive connector嘛?
    

回复