Flink SQL UDF 如何自定义Metrics

2021-02-24 文章 xingoo
HI,
 如题,想要在Flink
SQL中通过自定义UDF增加指标,从而实现自定义告警。那么如何在UDF中获取到RuntimeContext从而修改Metrics呢?



--
Sent from: http://apache-flink.147419.n8.nabble.com/

??????Flink SQL??UDF????????????????json????????

2020-06-23 文章 lonely Wanderer
??
??Flink(1.8)SQL 
??UDF,jsonname??name??value
 (e.g.??appKey) 
??json:
{"appKey": "qq", "eventId": "18", "name" : 
[{"a":"jack","b":"mark","c":"tark"},{...},...]}
json??
{"appKey": "qq", "eventId": "18", 
"name_a":"jack","name_b":"mark","name_c":"tark"}
 ?? ?? 

Re: Flink SQL UDF 动态类型

2020-06-09 文章 Jingsong Li
Hi all,

业务上一般是可以避免动态类型的UDF的,如果有刚需,1.11已经支持了[1],文档还在路上,一个简单的例子根据第一个参数来推断返回类型:

@Override
public TypeInference getTypeInference(DataTypeFactory typeFactory) {
   return TypeInference.newBuilder()
  .outputTypeStrategy(TypeStrategies.argument(0))
  .build();
}


[1]https://issues.apache.org/jira/browse/FLINK-15487

Best,
Jingsong Lee

On Tue, Jun 9, 2020 at 4:57 PM kcz <573693...@qq.com> wrote:

> 有道理呀,我直接map就好 。tks。
>
>
>
>
> --原始邮件--
> 发件人:"1048262223"<1048262...@qq.com;
> 发送时间:2020年6月9日(星期二) 下午4:51
> 收件人:"user-zh"
> 主题:回复: Flink SQL UDF 动态类型
>
>
>
> Hi
>
>
> 这个可以通过返回一个通用类型比如Map来实现。
>
>
> Best,
> Yichao Yang
>
>
>
>
> --nbsp;原始邮件nbsp;--
> 发件人:nbsp;"kcz"<573693...@qq.comgt;;
> 发送时间:nbsp;2020年6月9日(星期二) 下午4:49
> 收件人:nbsp;"user-zh"
> 主题:nbsp;回复: Flink SQL UDF 动态类型
>
>
>
> 动态类型这个我们其实也挺需要的,比如我写一个列转行的udf,这个时候我需要确认返回的字段个数以及返回的类型,如果增加字段等,就需要更多udf来实现。
>
>
>
>
> ----------amp;nbsp;原始邮件amp;nbsp;--
> 发件人:amp;nbsp;"Benchao Li" 发送时间:amp;nbsp;2020年6月9日(星期二) 下午2:47
> 收件人:amp;nbsp;"user-zh"
> 主题:amp;nbsp;Re: Flink SQL UDF 动态类型
>
>
>
> 我也感觉这种场景可以用一个pb format来搞比较好一些,其实我们内部也是这么用的。
> 我们的format实现也是拿到pb编译后的class,根据这个class推导出来table的schema。
> 这个过程主要是需要定义清楚pb的所有类型到flink类型的映射关系。
>
> 之前也考虑过在社区讨论下是否有必要支持一下pb format。如果你们都有这个诉求,
> 我们可以先建一个jira,然后再jira里面讨论具体的需求和实现。
>
> 1048262223 <1048262...@qq.comamp;gt; 于2020年6月9日周二 下午2:23写道:
>
> amp;gt; Hi
> amp;gt;
> amp;gt;
> amp;gt;
> amp;gt;
> 我们是用到了pb作为源数据的,我们的方法是在程序初始化的时候根据pb的schema(descriptor)解析出TypeInformation,然后再env.addSource().returns()内指定我们解析出的TypeInformation,这个TypeInformation可以是任何动态类型的。
> amp;gt;
> amp;gt;
> amp;gt;
> amp;gt;
> 但是你的场景是使用udf,根据你发的udf示例来看,我明白你想要动态类型输出,但是实际上我不了解你们的场景,不明白什么样的场景需要用到这种处理,以及会用到一个udf产出不同的结果,因为我理解为了udf的管理方便、可读性以及可维护性,udf的输出参数类型应该定下来比较好一点。
> amp;gt;
> amp;gt;
> amp;gt; 如果有理解不对之处,敬请指出。
> amp;gt;
> amp;gt;
> amp;gt; Best,
> amp;gt; Yichao Yang
> amp;gt;
> amp;gt;
> amp;gt;
> amp;gt;
> amp;gt;
> --amp;amp;nbsp;原始邮件amp;amp;nbsp;--
> amp;gt; 发件人:amp;amp;nbsp;"forideal" amp;amp;gt;;
> amp;gt; 发送时间:amp;amp;nbsp;2020年6月9日(星期二) 中午1:33
> amp;gt; 收件人:amp;amp;nbsp;"user-zh" amp;amp;gt;;
> amp;gt;
> amp;gt; 主题:amp;amp;nbsp;Flink SQL UDF 动态类型
> amp;gt;
> amp;gt;
> amp;gt;
> amp;gt; 你好,我的朋友:
> amp;gt;
> amp;gt;
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> 我使用的是 Flink 1.10 Blink Planer。
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> 我想构造一个Flink UDF ,这个 UDF 可以根据不同的参数返回不同的类型。
> amp;gt;
> amp;gt;
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> 为什么我想要这个功能:
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> 场景1: 我的数据是一个 pb 的 bytes,我想从里面获取数据,如果统一的返回
> amp;gt; string,后面还需要 cast 比较繁琐,如果使用 get_int、get_double、get_string
> 这样的方式,实现起来又非常多
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> 场景2: 我的数据是一个 Json ,问题同上。
> amp;gt; amp;amp;nbsp;
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> 在场景1中,我改了下 Flink 的源码,在 ScalarFunction
> amp;gt; 中加了一个初始化方法,在Flink 初始化 scalar function 的时候,进行相关的初始化
> amp;gt; @Override
> amp;gt; public void initialize(LogicalType[] sqlTypes, String[]
> paramNames) {
> amp;gt; // 在这个函数里面做一些事情,比如,我可以根据 paramNames 去取 pb 的 schema
> 信息,拿到类型信息,这样就可以动态的设置类型
> amp;gt; }
> amp;gt; amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> 这个方法很有效果,他帮我们 workaround 了一段时间,目前依然work。只是有些不是那么优雅。
> amp;gt; amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp; 这个case
> 就是我想要的一个,不过,目前这个会返回 RAW('java.lang.Object', ?)
> amp;gt; 这个类型不进行 cast 是无法直接使用的。
> amp;gt; public class TimestampTest extends ScalarFunction {
> amp;gt;
> amp;gt; public Object eval(long timestamp, String pattern, int num) {
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> Timestamp timestamp1 = new
> amp;gt; Timestamp(timestamp);
> amp;gt; SimpleDateFormat sdf = new SimpleDateFormat(pattern);
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> if (num < 4) {
> amp;gt; //返回 STRING 类型
> amp;gt; return String.valueOf(timestamp);
> amp;gt; }
> amp;gt; if (num < 6) {
> amp;gt; //返回 BIGINT
> amp;gt; return timestamp - 100;
> amp;gt; }
> amp;gt; if (num < 8) {
> amp;gt; //返回 DOUBLE
> amp;gt; double ss = 0.9;
> amp;gt;
> amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;amp;amp;nbsp;
> return
> amp;gt; (double) timestamp + ss;
> amp;gt; }
> amp;gt; //返回 STRING
> amp;gt; return sdf.format(timestamp1);
> amp;gt; }
> amp;gt; }



-- 
Best, Jingsong Lee


?????? Flink SQL UDF ????????

2020-06-09 文章 kcz
map ??tks??




----
??:"1048262223"<1048262...@qq.com;
:2020??6??9??(??) 4:51
??:"user-zh"

?????? Flink SQL UDF ????????

2020-06-09 文章 1048262223
Hi


Map


Best,
Yichao Yang




----
??:"kcz"<573693...@qq.com;
:2020??6??9??(??) 4:49
??:"user-zh"

?????? Flink SQL UDF ????????

2020-06-09 文章 kcz
udfudf




----
??:"Benchao Li"

Re:Re: Flink SQL UDF 动态类型

2020-06-09 文章 forideal
+1 to support pb format



如果能支持 pb format 那简直太好了,实际了我们也自己搞了一个 pb 
format。大概的方法也是在外边做了一个对应的service,这个service保存了一个jar,在进行parse byte 
的时候,采用了urlclassload+反射调用 parse 类型的方法。
同时也尝试过使用 dynamic message 的方式,这个方式更轻量一些,但是,性能差强人意。











在 2020-06-09 14:49:02,"Jark Wu"  写道:
>+1 to support pb format.
>
>On Tue, 9 Jun 2020 at 14:47, Benchao Li  wrote:
>
>> 我也感觉这种场景可以用一个pb format来搞比较好一些,其实我们内部也是这么用的。
>> 我们的format实现也是拿到pb编译后的class,根据这个class推导出来table的schema。
>> 这个过程主要是需要定义清楚pb的所有类型到flink类型的映射关系。
>>
>> 之前也考虑过在社区讨论下是否有必要支持一下pb format。如果你们都有这个诉求,
>> 我们可以先建一个jira,然后再jira里面讨论具体的需求和实现。
>>
>> 1048262223 <1048262...@qq.com> 于2020年6月9日周二 下午2:23写道:
>>
>> > Hi
>> >
>> >
>> >
>> >
>> 我们是用到了pb作为源数据的,我们的方法是在程序初始化的时候根据pb的schema(descriptor)解析出TypeInformation,然后再env.addSource().returns()内指定我们解析出的TypeInformation,这个TypeInformation可以是任何动态类型的。
>> >
>> >
>> >
>> >
>> 但是你的场景是使用udf,根据你发的udf示例来看,我明白你想要动态类型输出,但是实际上我不了解你们的场景,不明白什么样的场景需要用到这种处理,以及会用到一个udf产出不同的结果,因为我理解为了udf的管理方便、可读性以及可维护性,udf的输出参数类型应该定下来比较好一点。
>> >
>> >
>> > 如果有理解不对之处,敬请指出。
>> >
>> >
>> > Best,
>> > Yichao Yang
>> >
>> >
>> >
>> >
>> > --原始邮件--
>> > 发件人:"forideal"> > 发送时间:2020年6月9日(星期二) 中午1:33
>> > 收件人:"user-zh"> >
>> > 主题:Flink SQL UDF 动态类型
>> >
>> >
>> >
>> > 你好,我的朋友:
>> >
>> >
>> >  我使用的是 Flink 1.10 Blink Planer。
>> >  我想构造一个Flink UDF ,这个 UDF 可以根据不同的参数返回不同的类型。
>> >
>> >
>> >  为什么我想要这个功能:
>> >  场景1: 我的数据是一个 pb 的 bytes,我想从里面获取数据,如果统一的返回
>> > string,后面还需要 cast 比较繁琐,如果使用 get_int、get_double、get_string 这样的方式,实现起来又非常多
>> >  场景2: 我的数据是一个 Json ,问题同上。
>> > 
>> >  在场景1中,我改了下 Flink 的源码,在 ScalarFunction
>> > 中加了一个初始化方法,在Flink 初始化 scalar function 的时候,进行相关的初始化
>> > @Override
>> > public void initialize(LogicalType[] sqlTypes, String[] paramNames) {
>> > // 在这个函数里面做一些事情,比如,我可以根据 paramNames 去取 pb 的 schema 信息,拿到类型信息,这样就可以动态的设置类型
>> > }
>> >  这个方法很有效果,他帮我们 workaround 了一段时间,目前依然work。只是有些不是那么优雅。
>> >  这个case 就是我想要的一个,不过,目前这个会返回 RAW('java.lang.Object', ?)
>> > 这个类型不进行 cast 是无法直接使用的。
>> > public class TimestampTest extends ScalarFunction {
>> >
>> > public Object eval(long timestamp, String pattern, int num) {
>> >  Timestamp timestamp1 = new
>> > Timestamp(timestamp);
>> > SimpleDateFormat sdf = new SimpleDateFormat(pattern);
>> >  if (num < 4) {
>> > //返回 STRING 类型
>> > return String.valueOf(timestamp);
>> > }
>> > if (num < 6) {
>> > //返回 BIGINT
>> > return timestamp - 100;
>> > }
>> > if (num < 8) {
>> > //返回 DOUBLE
>> > double ss = 0.9;
>> >  return
>> > (double) timestamp + ss;
>> > }
>> > //返回 STRING
>> > return sdf.format(timestamp1);
>> > }
>> > }
>>


Re: Flink SQL UDF 动态类型

2020-06-09 文章 Benchao Li
FYI: issue[1] 已经建好了,各位感兴趣的可以关注一下,也非常欢迎参与设计和实现~

[1] https://issues.apache.org/jira/browse/FLINK-18202

1048262223 <1048262...@qq.com> 于2020年6月9日周二 下午2:54写道:

> Hi
>
>
>
> +1,各位大佬,其实我自己已经通过参考avro,json等format实现基于pb实现了一个flink-protobuf解析的formats,git地址如下
> https://github.com/yangyichao-mango/flink-protobuf
> 之后我会持续关注社区关于pb format的实现。
>
>
> Best,
> Yichao Yang
>
>
>
>
> --原始邮件--
> 发件人:"Jark Wu" 发送时间:2020年6月9日(星期二) 下午2:49
> 收件人:"user-zh"
> 主题:Re: Flink SQL UDF 动态类型
>
>
>
> +1 to support pb format.
>
> On Tue, 9 Jun 2020 at 14:47, Benchao Li 
>  我也感觉这种场景可以用一个pb format来搞比较好一些,其实我们内部也是这么用的。
>  我们的format实现也是拿到pb编译后的class,根据这个class推导出来table的schema。
>  这个过程主要是需要定义清楚pb的所有类型到flink类型的映射关系。
> 
>  之前也考虑过在社区讨论下是否有必要支持一下pb format。如果你们都有这个诉求,
>  我们可以先建一个jira,然后再jira里面讨论具体的需求和实现。
> 
>  1048262223 <1048262...@qq.com 于2020年6月9日周二 下午2:23写道:
> 
>   Hi
>  
>  
>  
>  
> 
> 我们是用到了pb作为源数据的,我们的方法是在程序初始化的时候根据pb的schema(descriptor)解析出TypeInformation,然后再env.addSource().returns()内指定我们解析出的TypeInformation,这个TypeInformation可以是任何动态类型的。
>  
>  
>  
>  
> 
> 但是你的场景是使用udf,根据你发的udf示例来看,我明白你想要动态类型输出,但是实际上我不了解你们的场景,不明白什么样的场景需要用到这种处理,以及会用到一个udf产出不同的结果,因为我理解为了udf的管理方便、可读性以及可维护性,udf的输出参数类型应该定下来比较好一点。
>  
>  
>   如果有理解不对之处,敬请指出。
>  
>  
>   Best,
>   Yichao Yang
>  
>  
>  
>  
>   --nbsp;原始邮件nbsp;--
>   发件人:nbsp;"forideal"   发送时间:nbsp;2020年6月9日(星期二) 中午1:33
>   收件人:nbsp;"user-zh"  
>   主题:nbsp;Flink SQL UDF 动态类型
>  
>  
>  
>   你好,我的朋友:
>  
>  
>   nbsp;nbsp;nbsp;nbsp;nbsp; 我使用的是 Flink
> 1.10 Blink Planer。
>   nbsp;nbsp;nbsp;nbsp;nbsp; 我想构造一个Flink
> UDF ,这个 UDF 可以根据不同的参数返回不同的类型。
>  
>  
>   nbsp;nbsp;nbsp;nbsp;nbsp; 为什么我想要这个功能:
>   nbsp;nbsp;nbsp;nbsp;nbsp; 场景1: 我的数据是一个
> pb 的 bytes,我想从里面获取数据,如果统一的返回
>   string,后面还需要 cast 比较繁琐,如果使用 get_int、get_double、get_string
> 这样的方式,实现起来又非常多
>   nbsp;nbsp;nbsp;nbsp; 场景2: 我的数据是一个 Json ,问题同上。
>   nbsp;
>   nbsp;nbsp;nbsp;nbsp; 在场景1中,我改了下 Flink 的源码,在
> ScalarFunction
>   中加了一个初始化方法,在Flink 初始化 scalar function 的时候,进行相关的初始化
>   @Override
>   public void initialize(LogicalType[] sqlTypes, String[]
> paramNames) {
>   // 在这个函数里面做一些事情,比如,我可以根据 paramNames 去取 pb 的 schema
> 信息,拿到类型信息,这样就可以动态的设置类型
>   }
>   nbsp;nbsp;nbsp; 这个方法很有效果,他帮我们 workaround
> 了一段时间,目前依然work。只是有些不是那么优雅。
>   nbsp;nbsp;nbsp; 这个case 就是我想要的一个,不过,目前这个会返回
> RAW('java.lang.Object', ?)
>   这个类型不进行 cast 是无法直接使用的。
>   public class TimestampTest extends ScalarFunction {
>  
>   public Object eval(long timestamp, String pattern, int num) {
>  
> nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;
> Timestamp timestamp1 = new
>   Timestamp(timestamp);
>   SimpleDateFormat sdf = new SimpleDateFormat(pattern);
>  
> nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp; if
> (num < 4) {
>   //返回 STRING 类型
>   return String.valueOf(timestamp);
>   }
>   if (num < 6) {
>   //返回 BIGINT
>   return timestamp - 100;
>   }
>   if (num < 8) {
>   //返回 DOUBLE
>   double ss = 0.9;
>  
> nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;
> return
>   (double) timestamp + ss;
>   }
>   //返回 STRING
>   return sdf.format(timestamp1);
>   }
>   }
> 


?????? Flink SQL UDF ????????

2020-06-09 文章 1048262223
Hi


+1??avro??json??formatpb??flink-protobuf??formats??git
https://github.com/yangyichao-mango/flink-protobuf
pb format


Best,
Yichao Yang




----
??:"Jark Wu"

Re: Flink SQL UDF 动态类型

2020-06-09 文章 Jark Wu
+1 to support pb format.

On Tue, 9 Jun 2020 at 14:47, Benchao Li  wrote:

> 我也感觉这种场景可以用一个pb format来搞比较好一些,其实我们内部也是这么用的。
> 我们的format实现也是拿到pb编译后的class,根据这个class推导出来table的schema。
> 这个过程主要是需要定义清楚pb的所有类型到flink类型的映射关系。
>
> 之前也考虑过在社区讨论下是否有必要支持一下pb format。如果你们都有这个诉求,
> 我们可以先建一个jira,然后再jira里面讨论具体的需求和实现。
>
> 1048262223 <1048262...@qq.com> 于2020年6月9日周二 下午2:23写道:
>
> > Hi
> >
> >
> >
> >
> 我们是用到了pb作为源数据的,我们的方法是在程序初始化的时候根据pb的schema(descriptor)解析出TypeInformation,然后再env.addSource().returns()内指定我们解析出的TypeInformation,这个TypeInformation可以是任何动态类型的。
> >
> >
> >
> >
> 但是你的场景是使用udf,根据你发的udf示例来看,我明白你想要动态类型输出,但是实际上我不了解你们的场景,不明白什么样的场景需要用到这种处理,以及会用到一个udf产出不同的结果,因为我理解为了udf的管理方便、可读性以及可维护性,udf的输出参数类型应该定下来比较好一点。
> >
> >
> > 如果有理解不对之处,敬请指出。
> >
> >
> > Best,
> > Yichao Yang
> >
> >
> >
> >
> > --原始邮件--
> > 发件人:"forideal" > 发送时间:2020年6月9日(星期二) 中午1:33
> > 收件人:"user-zh" >
> > 主题:Flink SQL UDF 动态类型
> >
> >
> >
> > 你好,我的朋友:
> >
> >
> >  我使用的是 Flink 1.10 Blink Planer。
> >  我想构造一个Flink UDF ,这个 UDF 可以根据不同的参数返回不同的类型。
> >
> >
> >  为什么我想要这个功能:
> >  场景1: 我的数据是一个 pb 的 bytes,我想从里面获取数据,如果统一的返回
> > string,后面还需要 cast 比较繁琐,如果使用 get_int、get_double、get_string 这样的方式,实现起来又非常多
> >  场景2: 我的数据是一个 Json ,问题同上。
> > 
> >  在场景1中,我改了下 Flink 的源码,在 ScalarFunction
> > 中加了一个初始化方法,在Flink 初始化 scalar function 的时候,进行相关的初始化
> > @Override
> > public void initialize(LogicalType[] sqlTypes, String[] paramNames) {
> > // 在这个函数里面做一些事情,比如,我可以根据 paramNames 去取 pb 的 schema 信息,拿到类型信息,这样就可以动态的设置类型
> > }
> >  这个方法很有效果,他帮我们 workaround 了一段时间,目前依然work。只是有些不是那么优雅。
> >  这个case 就是我想要的一个,不过,目前这个会返回 RAW('java.lang.Object', ?)
> > 这个类型不进行 cast 是无法直接使用的。
> > public class TimestampTest extends ScalarFunction {
> >
> > public Object eval(long timestamp, String pattern, int num) {
> >  Timestamp timestamp1 = new
> > Timestamp(timestamp);
> > SimpleDateFormat sdf = new SimpleDateFormat(pattern);
> >  if (num < 4) {
> > //返回 STRING 类型
> > return String.valueOf(timestamp);
> > }
> > if (num < 6) {
> > //返回 BIGINT
> > return timestamp - 100;
> > }
> > if (num < 8) {
> > //返回 DOUBLE
> > double ss = 0.9;
> >  return
> > (double) timestamp + ss;
> > }
> > //返回 STRING
> > return sdf.format(timestamp1);
> > }
> > }
>


Re: Flink SQL UDF 动态类型

2020-06-09 文章 Benchao Li
我也感觉这种场景可以用一个pb format来搞比较好一些,其实我们内部也是这么用的。
我们的format实现也是拿到pb编译后的class,根据这个class推导出来table的schema。
这个过程主要是需要定义清楚pb的所有类型到flink类型的映射关系。

之前也考虑过在社区讨论下是否有必要支持一下pb format。如果你们都有这个诉求,
我们可以先建一个jira,然后再jira里面讨论具体的需求和实现。

1048262223 <1048262...@qq.com> 于2020年6月9日周二 下午2:23写道:

> Hi
>
>
>
> 我们是用到了pb作为源数据的,我们的方法是在程序初始化的时候根据pb的schema(descriptor)解析出TypeInformation,然后再env.addSource().returns()内指定我们解析出的TypeInformation,这个TypeInformation可以是任何动态类型的。
>
>
>
> 但是你的场景是使用udf,根据你发的udf示例来看,我明白你想要动态类型输出,但是实际上我不了解你们的场景,不明白什么样的场景需要用到这种处理,以及会用到一个udf产出不同的结果,因为我理解为了udf的管理方便、可读性以及可维护性,udf的输出参数类型应该定下来比较好一点。
>
>
> 如果有理解不对之处,敬请指出。
>
>
> Best,
> Yichao Yang
>
>
>
>
> --原始邮件------
> 发件人:"forideal" 发送时间:2020年6月9日(星期二) 中午1:33
> 收件人:"user-zh"
> 主题:Flink SQL UDF 动态类型
>
>
>
> 你好,我的朋友:
>
>
>  我使用的是 Flink 1.10 Blink Planer。
>  我想构造一个Flink UDF ,这个 UDF 可以根据不同的参数返回不同的类型。
>
>
>  为什么我想要这个功能:
>  场景1: 我的数据是一个 pb 的 bytes,我想从里面获取数据,如果统一的返回
> string,后面还需要 cast 比较繁琐,如果使用 get_int、get_double、get_string 这样的方式,实现起来又非常多
>  场景2: 我的数据是一个 Json ,问题同上。
> 
>  在场景1中,我改了下 Flink 的源码,在 ScalarFunction
> 中加了一个初始化方法,在Flink 初始化 scalar function 的时候,进行相关的初始化
> @Override
> public void initialize(LogicalType[] sqlTypes, String[] paramNames) {
> // 在这个函数里面做一些事情,比如,我可以根据 paramNames 去取 pb 的 schema 信息,拿到类型信息,这样就可以动态的设置类型
> }
>  这个方法很有效果,他帮我们 workaround 了一段时间,目前依然work。只是有些不是那么优雅。
>  这个case 就是我想要的一个,不过,目前这个会返回 RAW('java.lang.Object', ?)
> 这个类型不进行 cast 是无法直接使用的。
> public class TimestampTest extends ScalarFunction {
>
> public Object eval(long timestamp, String pattern, int num) {
>  Timestamp timestamp1 = new
> Timestamp(timestamp);
> SimpleDateFormat sdf = new SimpleDateFormat(pattern);
>  if (num < 4) {
> //返回 STRING 类型
> return String.valueOf(timestamp);
> }
> if (num < 6) {
> //返回 BIGINT
> return timestamp - 100;
> }
> if (num < 8) {
> //返回 DOUBLE
> double ss = 0.9;
>  return
> (double) timestamp + ss;
> }
> //返回 STRING
> return sdf.format(timestamp1);
> }
> }


??????Flink SQL UDF ????????

2020-06-09 文章 1048262223
Hi


pbpb??schema(descriptor)??TypeInformationenv.addSource().returns()??TypeInformation??TypeInformation??


??udfudfudf??udfudf


??


Best,
Yichao Yang




----
??:"forideal"

Flink SQL UDF 动态类型

2020-06-08 文章 forideal
你好,我的朋友:


  我使用的是 Flink 1.10 Blink Planer。
  我想构造一个Flink UDF ,这个 UDF 可以根据不同的参数返回不同的类型。


  为什么我想要这个功能:
  场景1: 我的数据是一个 pb 的 bytes,我想从里面获取数据,如果统一的返回 string,后面还需要 cast 比较繁琐,如果使用 
get_int、get_double、get_string 这样的方式,实现起来又非常多
 场景2: 我的数据是一个 Json ,问题同上。
  
 在场景1中,我改了下 Flink 的源码,在 ScalarFunction 中加了一个初始化方法,在Flink 初始化 scalar 
function 的时候,进行相关的初始化
@Override
public void initialize(LogicalType[] sqlTypes, String[] paramNames) {
// 在这个函数里面做一些事情,比如,我可以根据 paramNames 去取 pb 的 schema 信息,拿到类型信息,这样就可以动态的设置类型
}
这个方法很有效果,他帮我们 workaround 了一段时间,目前依然work。只是有些不是那么优雅。
这个case 就是我想要的一个,不过,目前这个会返回 RAW('java.lang.Object', ?) 这个类型不进行 cast 是无法直接使用的。
public class TimestampTest extends ScalarFunction {

public Object eval(long timestamp, String pattern, int num) {
Timestamp timestamp1 = new Timestamp(timestamp);
SimpleDateFormat sdf = new SimpleDateFormat(pattern);
if (num < 4) {
//返回 STRING 类型
return String.valueOf(timestamp);
}
if (num < 6) {
//返回 BIGINT
return timestamp - 100;
}
if (num < 8) {
//返回 DOUBLE
double ss = 0.9;
return (double) timestamp + ss;
}
//返回 STRING
return sdf.format(timestamp1);
}
}