如果没有我用VertX和Druid连接池贡献下代码。这个要在dev邮件列表里讨论是吗
create table source (
id int
) with (
type='jdbc',
username='us',
password='ab'c'
);
例如上面DDL密码的值需要 ' 单引号。这种应该怎么解决?
https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-jdbc/src/main/java/org/apache/flink/connector/jdbc/internal/JdbcBatchingOutputFormat.java
为什么上诉代码中的close方法要进行线程同步,这个是什么考虑。
我看Kafka Connector源码生成的是GenericRowData,到Jdbc
Sink类型编程BinaryRowData了。Runtime层把GenericRowData转换BinaryRowData的规则是什么?
自定义Connector时,RichSinkFunction和RichOutputFormat可以选择一个进行实现,那么作为开发者应该如何选择呢?
目前blink planner中有大量Scala代码,Scala在这方面写起来确实简单不少。未来不需要用Java重写是吗?
https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/table/connectors/formats/parquet.html
Parquet你要下这个Jar包放在你flink/lib目录的。
Luna Wong 于2021年4月1日周四 上午10:45写道:
>
> https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/table/connectors/formats/parquet.html
>
>
https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/table/connectors/formats/parquet.html
太平洋 <495635...@qq.com> 于2021年4月1日周四 上午10:26写道:
>
> 使用 parquet 还需要手段添加其他相关的依赖吗?
>
>
> 环境和报错信息如下:
>
>
> Flink 版本: 1.12.2
> 部署方式: standalone kubernetes session
> 添加的相关依赖
>
DynamicTableSource,目前ScanTable和LookupTable都不可自定义并行度。
问题1:ScanTable 并行度在FLIP-146中有提及, LookupTable的并行度设置有FLIP或者issue吗?
问题2:这两类Table的并行度设置,预计在Flink哪个版本推出。
Luna Wong 于2021年3月31日周三 下午9:46写道:
>
> DynamicTableSource,目前ScanTable和LookupTable都不可自定义并行度。
>
> Luna Wong 于2021年3月31
DynamicTableSource,目前ScanTable和LookupTable都不可自定义并行度。
Luna Wong 于2021年3月31日周三 下午9:45写道:
>
> DynamicTableSource,目前ScanTable和LookupTable都不可自定义并行度。
DynamicTableSource,目前ScanTable和LookupTable都不可自定义并行度。
我已经解决了。USE其他Catalog再建表即可。
Luna Wong 于2021年1月12日周二 下午9:41写道:
>
> 大家好。
> 我没有在官网找到个Job使用多个Catalog的例子。
> 我想在一个Job里使用普通的Catalog注册个Kafka Source然后,将数据发送Iceberg Sink表。这个Sink表
> 注册在另一个Iceberg + Hive 的Catalog 中。
> 注册代码如下。
> CREATE CATALOG hive_catalog WITH (
> 'typ
大家好。
我没有在官网找到个Job使用多个Catalog的例子。
我想在一个Job里使用普通的Catalog注册个Kafka Source然后,将数据发送Iceberg Sink表。这个Sink表
注册在另一个Iceberg + Hive 的Catalog 中。
注册代码如下。
CREATE CATALOG hive_catalog WITH (
'type'='iceberg',
'catalog-type'='hive',
'uri'='thrift://kudu1:9083',
'clients'='2',
'property-version'='1',
'warehous
代码如下,Flink metastore报错日志: AlreadyExistsException(message:Database
default already exists)
但是我已经 USE了 luna db啊?很奇怪
tEnv.executeSql("CREATE CATALOG iceberg_hive WITH (\n" +
" 'type'='iceberg',\n" +
" 'catalog-type'='hive',\n" +
" 'uri'='thrift://kudu1:9
我看Iceberg官方文档,Stream目前只支持Iceberg Sink但是没有Source。未来在哪个版本会支持Iceberg
Source Stream。有issue吗?
Flink 那个两个CVE的Patch 会打在1.10.4这个版本吗。目前修复版本是 1.11.3 1.12.0 ,很多生成还都在1.10 不好直接升级的。
https://issues.apache.org/jira/browse/FLINK-20696
有一定概率发生,提交很多Job,Job结束后,会有个别Blob目录没有清理。我还没Debug出原因。
gt; > 完整的 task name 有助于排查问题等,简短的 task name 有助于在生产环境中 metric
> > 的采集,可以极大较少发送的网络开销,存储空间等。
> > 已建立个了 issue :https://issues.apache.org/jira/browse/FLINK-20375
> >
> >
> > Best,
> > Hailong
> >
> > 在 2020-11-24 14:19:40,"Luna Wong" 写道:
>
FlinkSQL 生成的Metrics数据 task_name名字超长,导致Prometheus查询的时候内存暴涨,生产环境接受不了。
下面只是一个最简单的例子,复杂的SQL生成的task_name长达9000字节。这会导致Prometheus内存暴涨,我该怎么办。
task_name="Source:_wuren_foo_ods_fooSourceConversion_table__Unregistered_DataStream_1___fields__id__name__SinkConversionToRowSourceConversion_table__def
ceFactory,一般稳定一两个版本后社区会弃用,
> 另外这个是比较底层的实现,sql用户应该感知不到,如果有自定义connector的开发都建议用DynamicTableSourceFactory。
>
> 祝好
> Leonard Xu
>
> > 在 2020年11月16日,19:54,Luna Wong 写道:
> >
> > FLIP-95都实现后有了DynamicTableSourceFactory那么TableSourceFactory会弃用吗?
>
FLIP-95都实现后有了DynamicTableSourceFactory那么TableSourceFactory会弃用吗?
https://issues.apache.org/jira/browse/FLINK-20170
这是我今天提的issue。
Jackson这样反序列化会把BigDECIMAL转成Double。超过12位的小数精度丢失。这种情况我得怎么办。只能先当做STRING类型处理或修改下JSON这个包的源码重新变一下。
还有其他的最佳实践吗
Table API 转 DataStream为啥会出现性能损耗
hailongwang <18868816...@163.com> 于2020年11月11日周三 下午6:28写道:
>
> 我理解是使用 使用 Kafka consumer 时使用 `CanalJsonDeserializationSchema` 序列化类就好了?
> 而不是再实现一个 Connector。
>
>
>
>
> 在 2020-11-11 16:56:58,"LittleFall" <1578166...@qq.com> 写道:
> >明白了,多谢。
> >
> >是 Canal-Json 格式的 Kafka
为啥ElasticsearchApiCallBridge接口实现类的构造函数都不是Public。
我还想继承Elasticsearch6ApiCallBridge类。在new
RestHightLevelClient之前添加账号密码认证功能,即实现一个支持账号密码的子类。
不加Public 子类就必须得和父类一个包名了。ElasticsearchApiCallBridge的实现类为什么这么设计呢?
24 matches
Mail list logo