您好,我使用pyflink时的代码如下,有如下问题:
source = st_env.from_path('source')
#st_env是StreamTableEnvironment,source是kafka源端
#只在where语句中加udf1 (input_types =DataTypes.STRING(), result_type =
DataTypes.BOOLEAN())
table =
source.select("msg").where(udf1(msg)=True).execute_insert('sink').get_job_client().get_job
Hi
你需要指定下数据类型,可以用: cast(null as varchar) as person_uuid
Best
Leonard
> 在 2020年10月15日,12:18,Dream-底限 写道:
>
> hi、
> 我现在使用flink sql完成如下sql语句,但是程序无法运行,请问这个功能要怎么实现:
> select null as person_uuid from tablename
> 抛出异常:
> org.apache.flink.client.program.ProgramInvocationException: The main method
> ca
hi、
我现在使用flink sql完成如下sql语句,但是程序无法运行,请问这个功能要怎么实现:
select null as person_uuid from tablename
抛出异常:
org.apache.flink.client.program.ProgramInvocationException: The main method
caused an error: SQL validation failed. From line 1, column 47 to line 1,
column 50: Illegal use of 'NULL'
at
org.apache.flin
您好,我使用pyflink时的代码如下,有如下问题:
source = st_env.from_path('source')
#st_env是StreamTableEnvironment,source是kafka源端
#只在where语句中加udf1 (input_types =DataTypes.STRING(), result_type =
DataTypes.BOOLEAN())
table =
source.select("msg").where(udf1(msg)=True).execute_insert('sink').get_job_client().get_job
可以通过提交flink任务的客户端配置文件实现认证,具体配置可参考:
https://ci.apache.org/projects/flink/flink-docs-stable/ops/config.html#auth-with-external-systems
caozhen 于2020年10月12日周一 下午6:05写道:
> "认证的kafka是BBB.keytab" 这个是怎么设置的呢?是自己实现的kafkaSink嘛?
>
>
>
> --
> Sent from: http://apache-flink.147419.n8.nabble.com/
>
非常感谢。
后续我关注下这个问题,有结论反馈给大家,供参考。
--
Sent from: http://apache-flink.147419.n8.nabble.com/
可以具体描述下你的问题么,没太看懂你的问题。
smallwong 于2020年10月14日周三 下午6:57写道:
> 哈喽,请问是做了什么调整?才10秒的窗口,期待每秒都输出结果的
>
>
>
> --
> Sent from: http://apache-flink.147419.n8.nabble.com/
--
Best,
Benchao Li
哈喽,请问是做了什么调整?才10秒的窗口,期待每秒都输出结果的
--
Sent from: http://apache-flink.147419.n8.nabble.com/
HI
链接超时的问题,你后来解决了吗?能告诉下怎么解决的吗?
| |
superainbower
|
|
superainbo...@163.com
|
签名由网易邮箱大师定制
在2020年08月31日 15:57,酷酷的浑蛋 写道:
关键是在sql中怎么设置,connector=jdbc
在2020年08月31日 15:06,13580506953<13580506...@163.com> 写道:
这个问题本质是连接活性问题,
连接数据库超时设置autoReconnect=true(mysql5以上的,设置autoReconnect=true 是无效的 只有4.x版本,起作用)
hello,
我现在使用flinksql的方式读取kafka数据并且以parquet的格式写出到hdfs,当我引入flink-parquet的依赖时程序提交失败了,但是我以内置的avro、json等格式输出是正常的,下面是我的报错信息
org.apache.flink.client.program.ProgramInvocationException: The main method
caused an error: Unable to create a source for reading table
'default_catalog.default_database.cloud_beha
你好, 用kafka table
connector接过来的数据,在flink这边会保留多久,在参数列表里没有看到有这个设置,如果保留太久,内存会撑暴,比如我只想保留半个小时,之前的数据可以清除。
--
Sent from: http://apache-flink.147419.n8.nabble.com/
您好,我使用pyflink时的代码如下,有如下问题:
source = st_env.from_path('source')
#st_env是StreamTableEnvironment,source是kafka源端
table =
source.select("@timestamp").execute_insert('sink').get_job_client().get_job_execution_result().result()
kafka源端的json队列@timestamp字段名是固定死的,而我需要取这个字段进行处理,@timestamp涉及到@特殊符号和timesta
嗯嗯,看到了,才发现还有这个地方可以看
--
Sent from: http://apache-flink.147419.n8.nabble.com/
好的,谢谢
--
Sent from: http://apache-flink.147419.n8.nabble.com/
14 matches
Mail list logo