??????????????????kafka??????????????kafka??????????????????????????
kafka??kafkakafkaDebug ??AbstractFetcher.java ?? emitRecordsWithTimestamps ??for?? ?? AbstractFetcher emitRecordsWithTimestamps ?? protected void emitRecordsWithTimestamps( Queue
回复:jdbc connector 写入异常数据后,不再写入新数据时,异常信息不断嵌套,且不会抛出
老师你好,感谢您的回复,已确认是issue中的问题,截图为checkflushexception方法被调用的位置。 ---原始邮件--- 发件人: "Caizhi Weng"https://issues.apache.org/jira/browse/FLINK-24677 jianjianjianjianjianjianjianjian <724125...@qq.com.invalid> 于2022年2月14日周一 15:40写道: > 老师们,你们好: > 在使用jdbc connector写入操作时,*写入一条错误数据*(字段值超长)后*不再写入数据* > ,异常信息打印,但错误信息不会抛出,且异常信息会不断嵌套。该情况可能会导致问题延迟。 > 当前使用为1.13版本 org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat > 类 > 查阅 master 分支的 org.apache.flink.connector.jdbc.internal. > JdbcOutputFormat 类也存在类似问题,代码截图如下: > > *1.13版本:* > > master 分支: > > > > >
jdbc connector ??????????????????????????????????????????????????????????????
??jdbc connector ??1.13 org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat ?? master ?? org.apache.flink.connector.jdbc.internal.JdbcOutputFormat 1.13: master ??