Re: flink cdc 当mysql表字段修改之后提示没有找到这个字段

2020-11-09 文章 Jark Wu
Flink SQL 是结构化的 query 语言,目前做不到 schema 自动变更。 所以如果你的 mysql 源的 schema 变更了,那么需要重新定义 Flink DDL,然后重启 Flink SQL 的作业。 On Tue, 10 Nov 2020 at 15:37, 丁浩浩 <18579099...@163.com> wrote: > 当mysql表字段修改之后,再用flink cdc接入,当使用到这个表的时候会提示字段不存在。 > Exception in thread "main"

Re: Flink SQL传递性

2020-11-09 文章 Danny Chan
创建 view ? amen...@163.com 于2020年11月10日周二 下午3:28写道: > hi everyone, > > Flink SQL有没有上一个SQL的输出是下一个SQL的输入的业务场景思路? > 比如说KafkaSource -> SQL_1 -> SQL_2 -> MysqlSink,一整个链起来,作为一个任务提交运行~ > > best, > amenhub >

Re: Flink sql tinyint类型使用in 报错

2020-11-09 文章 Danny Chan
好的 了解 丁浩浩 <18579099...@163.com> 于2020年11月10日周二 下午3:19写道: > 就比如我要用flink cdc 接入mysql表,一般都是直接将mysql表的DDL稍加修改然后在flink sql中创建,一般都不会考虑到 > 类型转换的问题就直接沿用mysql中的类型,当然sql也是一样的。同样的sql在满足语法正确性的情况下,mysql中能跑,而flinksql中无法跑, > 当然可以通过显示类型转化来完成,但是能提供自动转化会更好的提供易用性。 > > > 在 2020年11月10日,下午2:51,Danny Chan 写道: > > > >

Re: Re: flink tm cpu cores设置

2020-11-09 文章 zjfpla...@hotmail.com
JM logs里面有 Loading configuration property: yarn.containers.cores,4 zjfpla...@hotmail.com 发件人: zjfpla...@hotmail.com 发送时间: 2020-11-10 15:33 收件人: user-zh 主题: Re: Re: flink tm cpu cores设置 当设为5的时候 tm cpu cores为4,当设为4的时候,tm cpu cores还是为4 zjfpla...@hotmail.com 发件人: Yangze Guo 发送时间: 2020-11-09

Re: SQL从1.9迁移到1.11的问题

2020-11-09 文章 Danny Chan
通过 Table 操作流程的 DAG 现在不再会缓存到底层的 exec env 中,为了避免 transformations 污染,所以是拿不到的,但是内部代码我们仍然是先拼接 StreamGraph 然后直接通过 exec env 提交。 izual 于2020年10月30日周五 下午5:04写道: > hi,Community: > > > 我们目前使用的是 flink 1.9.1 执行 SQL 任务,主要使用了以下几种接口: > 1. sqlQuery sqlUpdate: 执行表的创建、查找和写入 > 2.

flink cdc 当mysql表字段修改之后提示没有找到这个字段

2020-11-09 文章 丁浩浩
当mysql表字段修改之后,再用flink cdc接入,当使用到这个表的时候会提示字段不存在。 Exception in thread "main" org.apache.flink.table.api.ValidationException: SQL validation failed. From line 53, column 15 to line 53, column 20: Column 'rounds' not found in table 'prcrs' at

Re: Re: flink tm cpu cores设置

2020-11-09 文章 zjfpla...@hotmail.com
当设为5的时候 tm cpu cores为4,当设为4的时候,tm cpu cores还是为4 zjfpla...@hotmail.com 发件人: Yangze Guo 发送时间: 2020-11-09 10:19 收件人: user-zh 主题: Re: Re: flink tm cpu cores设置 如何确认没有用的呢?能分享一下jm日志么? 另外这个参数实际是否生效也取决于yarn的调度器是否开启了cpu调度 Best, Yangze Guo On Thu, Nov 5, 2020 at 1:50 PM zjfpla...@hotmail.com wrote:

Flink SQL传递性

2020-11-09 文章 amen...@163.com
hi everyone, Flink SQL有没有上一个SQL的输出是下一个SQL的输入的业务场景思路? 比如说KafkaSource -> SQL_1 -> SQL_2 -> MysqlSink,一整个链起来,作为一个任务提交运行~ best, amenhub

flink sql lateral table问题

2020-11-09 文章 赵帅
关于行转列问题,请教一下 SELECT alert_id, organization_id FROM ( SELECT alert_id, org_ids FROM db_ods_hive.ods_alert_content_in_hive WHERE cd_date = '${date}' ) LEFT JOIN LATERAL TABLE(ALERT_ORGANIZATION_IDS_TO_ROWS(org_ids, ',')) AS T(organization_id) ON TRUE WHERE organization_id IS NOT

Re: Flink sql tinyint类型使用in 报错

2020-11-09 文章 丁浩浩
就比如我要用flink cdc 接入mysql表,一般都是直接将mysql表的DDL稍加修改然后在flink sql中创建,一般都不会考虑到 类型转换的问题就直接沿用mysql中的类型,当然sql也是一样的。同样的sql在满足语法正确性的情况下,mysql中能跑,而flinksql中无法跑, 当然可以通过显示类型转化来完成,但是能提供自动转化会更好的提供易用性。 > 在 2020年11月10日,下午2:51,Danny Chan 写道: > > 暂时还没有 你们是什么场景需要用到隐式类型 > > 丁浩浩 <18579099...@163.com> 于2020年11月10日周二

Re: Flink 读取Hive,报错 :Could not read the user code wrapper: invalid type code: 9C。

2020-11-09 文章 Rui Li
这个错误一般是因为JM或者TM那边缺少相应的依赖,导致反序列化的时候失败了。 On Tue, Nov 10, 2020 at 8:22 AM 蒋龙 wrote: > 大佬们好,使用flink读取hive报了一个很奇怪错:Caused by: > org.apache.flink.runtime.operators.util.CorruptConfigurationException: > Could not read the user code wrapper: invalid type code: 9C。一直不得其解,求赐教啊~ > flink:1.11.2 > hive:

Re: Flink sql tinyint类型使用in 报错

2020-11-09 文章 Danny Chan
暂时还没有 你们是什么场景需要用到隐式类型 丁浩浩 <18579099...@163.com> 于2020年11月10日周二 下午2:45写道: > 请问有没有计划加入隐式类型自动转化呢 > > > 在 2020年11月10日,下午2:35,Jark Wu 写道: > > > > 是的。Flink 目前还不支持隐式类型转换。 > > > > Best, > > Jark > > > > On Tue, 10 Nov 2020 at 14:28, hailongwang <18868816...@163.com> wrote: > > > >> Hi, > >> > >> > >>

Re: flink sql LATERAL TABLE

2020-11-09 文章 Danny Chan
可以提供详细信息,比如 sql 语句是啥 报错堆栈给出来 赵帅 于2020年11月10日周二 下午2:48写道: > 请教一下,flink sql,lateral table如何配合insert overwrite使用,直接select不报错,但是一旦insert > overwrite就报错

flink sql LATERAL TABLE

2020-11-09 文章 赵帅
请教一下,flink sql,lateral table如何配合insert overwrite使用,直接select不报错,但是一旦insert overwrite就报错

Re: Flink sql tinyint类型使用in 报错

2020-11-09 文章 丁浩浩
请问有没有计划加入隐式类型自动转化呢 > 在 2020年11月10日,下午2:35,Jark Wu 写道: > > 是的。Flink 目前还不支持隐式类型转换。 > > Best, > Jark > > On Tue, 10 Nov 2020 at 14:28, hailongwang <18868816...@163.com> wrote: > >> Hi, >> >> >> 从你的报错来看,是 in 不支持隐式 CAST。 >> 你要么可以把 type 定义成 INT,要不把后面的值 CAST 成 TINYINT。 >> >> >> Best, >>

Re: flink 1.11.2 如何获取blink计划下的BatchTableEnvironment对象

2020-11-09 文章 Danny Chan
拿 BatchTableEnvironment 对象作什么用处呢 ? 我们有 TableEnvironmentInternal 但是不推荐使用。 Asahi Lee <978466...@qq.com> 于2020年11月9日周一 下午5:09写道: > 是的,BatchTableEnvironment 对象 > > > > > --原始邮件-- > 发件人: > "user-zh" >

请问有哪些功能,是 stream api 可以做到,而 table api 无法做到的呢?

2020-11-09 文章 LittleFall
如题,望各位老师指点。 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: Flink sql tinyint类型使用in 报错

2020-11-09 文章 Jark Wu
是的。Flink 目前还不支持隐式类型转换。 Best, Jark On Tue, 10 Nov 2020 at 14:28, hailongwang <18868816...@163.com> wrote: > Hi, > > > 从你的报错来看,是 in 不支持隐式 CAST。 > 你要么可以把 type 定义成 INT,要不把后面的值 CAST 成 TINYINT。 > > > Best, > Hailong Wang > > 在 2020-11-10 10:41:47,"丁浩浩" <18579099...@163.com> 写道: > >我使用flink sql

Re:Flink sql tinyint类型使用in 报错

2020-11-09 文章 hailongwang
Hi, 从你的报错来看,是 in 不支持隐式 CAST。 你要么可以把 type 定义成 INT,要不把后面的值 CAST 成 TINYINT。 Best, Hailong Wang 在 2020-11-10 10:41:47,"丁浩浩" <18579099...@163.com> 写道: >我使用flink sql cdc取连接 mysql表的时候,当我的mysql表type这个字段类型是tinyint类型时 使用type >in(1,2,3,4,5)会报以下的错误,只有当我把字段类型改成int的时候才能使用in,这是符合预期的吗,当字段类型不匹配的时候 flink

Flink sql tinyint类型使用in 报错

2020-11-09 文章 丁浩浩
我使用flink sql cdc取连接 mysql表的时候,当我的mysql表type这个字段类型是tinyint类型时 使用type in(1,2,3,4,5)会报以下的错误,只有当我把字段类型改成int的时候才能使用in,这是符合预期的吗,当字段类型不匹配的时候 flink sql不会自动转换类型吗? [ERROR] Could not execute SQL statement. Reason: org.codehaus.commons.compiler.CompileException: Line 6, Column 88: No applicable

Flink与Yarn的状态一致性问题

2020-11-09 文章 amen...@163.com
hi everyone, 最近在使用Flink-1.11.1 On Yarn Per Job模式提交简单的kafka->mysql任务时,发现当有脏数据或mysql主键限制等等原因导致Flink任务状态置为Failed时,Yarn application仍处于运行状态 疑问是Flink任务处于Failed或Finished时,不会反馈自身状态给Yarn吗?期待大佬解惑,谢谢 best, amenhub

Flink 读取Hive,报错 :Could not read the user code wrapper: invalid type code: 9C。

2020-11-09 文章 蒋龙
大佬们好,使用flink读取hive报了一个很奇怪错:Caused by: org.apache.flink.runtime.operators.util.CorruptConfigurationException: Could not read the user code wrapper: invalid type code: 9C。一直不得其解,求赐教啊~ flink:1.11.2 hive: 2.2.0 hadoop:3.0.3 感觉像是输入输出流的包装那里有问题,但不知道是哪里有问题。on

Flink-sql 读取hive报错,invalid type code: 9C.

2020-11-09 文章 john
大佬们好,第一次使用flink读取hive报了一个很奇怪错:Caused by: org.apache.flink.runtime.operators.util.CorruptConfigurationException: Could not read the user code wrapper: invalid type code: 9C。一直不得其解,求赐教啊~ flink:1.11.2 hive: 2.2.0 hadoop:3.0.3 完成代码: public class flink { public static void main(String[] args)

Re: flink savepoint 异常

2020-11-09 文章 Congxian Qiu
Hi 异常信息中有 “Failed to trigger savepoint. Failure reason: An Exception occurred while triggering the checkpoint.” 或许你可以看看 JM 的日志,找一下看看有没有什么详细日志 Best, Congxian 张锴 于2020年11月7日周六 下午4:14写道: > 本人用flink 1.10.1版本进行savepoint时遇到下列错误,暂时不清楚错误的原因,特来寻求帮助,麻烦大佬们看看 > >

Re: Re:flink内存超用问题

2020-11-09 文章 Yun Tang
Hi 可以通过增大 "taskmanager.memory.jvm-overhead.max" [1] 以及 "taskmanager.memory.process.size" [2] 来增大可以超用的内存空间。可以通过观察 "state.backend.rocksdb.metrics.block-cache-pinned-usage" [3] 的数值看rocksDB使用的native memory是否超过managed memory。 [1]

?????? flink 1.11.2 ????????blink????????BatchTableEnvironment????

2020-11-09 文章 Asahi Lee
??BatchTableEnvironment ---- ??: "user-zh"

native K8s模式下,pod系统占用内存

2020-11-09 文章 caozhen
在native K8s模式下,创建的JM Pod、TM Pod,看代码中将flink process memor分配给了Pod可使用的资源。 我理解,pod中不止JVM进程,还可能有其他内存占用,例如Linux系统使用内存。 所以我有个疑问是pod系统占用多少内存? -- Sent from: http://apache-flink.147419.n8.nabble.com/