??????????????????kafka??????????????kafka??????????????????????????

2022-03-03 文章 jianjianjianjianjianjianjianjian

    
kafka??kafkakafkaDebug
    ??AbstractFetcher.java 
?? emitRecordsWithTimestamps 
??for??
    ?? AbstractFetcher 
 emitRecordsWithTimestamps ??
protected void emitRecordsWithTimestamps(
Queue

回复:jdbc connector 写入异常数据后,不再写入新数据时,异常信息不断嵌套,且不会抛出

2022-02-15 文章 jianjianjianjianjianjianjianjian
老师你好,感谢您的回复,已确认是issue中的问题,截图为checkflushexception方法被调用的位置。



---原始邮件---
发件人: "Caizhi Weng"https://issues.apache.org/jira/browse/FLINK-24677

jianjianjianjianjianjianjianjian <724125...@qq.com.invalid> 于2022年2月14日周一
15:40写道:

> 老师们,你们好:
>   在使用jdbc 
connector写入操作时,*写入一条错误数据*(字段值超长)后*不再写入数据*
> ,异常信息打印,但错误信息不会抛出,且异常信息会不断嵌套。该情况可能会导致问题延迟。
>   当前使用为1.13版本 
org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat
> 类
>   查阅 master 分支的 
org.apache.flink.connector.jdbc.internal.
> JdbcOutputFormat  类也存在类似问题,代码截图如下:
>
> *1.13版本:*
>
> master 分支:
>
>
>
>
>

jdbc connector ??????????????????????????????????????????????????????????????

2022-02-13 文章 jianjianjianjianjianjianjianjian
      ??jdbc 
connector
      
??1.13 org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat
 ??
       master 
?? org.apache.flink.connector.jdbc.internal.JdbcOutputFormat  


1.13:




master ??