回复: flink 1.11.2 使用rocksdb时出现org.apache.flink.util.SerializedThrowable错误

2021-03-20 文章 hdxg1101300...@163.com
知道原因了 hdxg1101300...@163.com 发件人: hdxg1101300...@163.com 发送时间: 2021-03-20 22:07 收件人: user-zh 主题: flink 1.11.2 使用rocksdb时出现org.apache.flink.util.SerializedThrowable错误 你好: 最近升级flink版本从flink 1.10.2 升级到flink.1.11.2;主要是考虑日志太大查看不方便的原因; 代码没有变动只是从1.10.2.编译为1.11.2 ,集群客户端版本升级到1.11.2;任务提交到yarn 使用

flink 1.11.2 使用rocksdb时出现org.apache.flink.util.SerializedThrowable错误

2021-03-20 文章 hdxg1101300...@163.com
你好: 最近升级flink版本从flink 1.10.2 升级到flink.1.11.2;主要是考虑日志太大查看不方便的原因; 代码没有变动只是从1.10.2.编译为1.11.2 ,集群客户端版本升级到1.11.2;任务提交到yarn 使用per job方式; 之前时一个taskmanager一个slot,现在使用一个taskmanager 2个slot;程序运行一段时间(1个小时左右)后就会出现 Caused by: org.apache.flink.util.SerializedThrowable org.apache.flink.runtime

flink 1.12 使用流式写入hive报错,Failed to create Hive RecordWriter

2021-03-20 文章 william
2021-03-20 13:50:34 org.apache.flink.connectors.hive.FlinkHiveException: org.apache.flink.table.catalog.exceptions.CatalogException: Failed to create Hive RecordWriter at org.apache.flink.connectors.hive.write.HiveWriterFactory.createRecordWriter(HiveWriterFactory.java:165) at org.a

flink 使用yarn部署,报错:Maximum Memory: 8192 Requested: 10240MB. Please check the 'yarn.scheduler.maximum-allocation-mb' and the 'yarn.nodemanager.resource.memory-mb' configuration values

2021-03-20 文章 william
org.apache.flink.client.deployment.ClusterDeploymentException: Couldn't deploy Yarn session cluster at org.apache.flink.yarn.YarnClusterDescriptor.deploySessionCluster(YarnClusterDescriptor.java:425) at org.apache.flink.yarn.cli.FlinkYarnSessionCli.run(FlinkYarnSessionCli.java:606)

flink 1.12 使用流式写入hive报错,Container exited with a non-zero exit code 239

2021-03-20 文章 william
2021-03-20 10:35:07 java.lang.Exception: Exception from container-launch. Container id: container_1612852008458_0028_01_05 Exit code: 239 Stack trace: ExitCodeException exitCode=239: at org.apache.hadoop.util.Shell.runCommand(Shell.java:585) at org.apache.hadoop.util.Shell.run(

邮件组退订

2021-03-20 文章 李朋辉
您好,希望退订邮件组邮件,使用新的邮件接收。