非常感谢,问题解决了!
















在 2020-06-09 08:27:47,"马阳阳" <ma_yang_y...@163.com> 写道:
>
>
>
>我们也遇到过这个问题,我们当时遇到的问题是YARN NM上的默认charset是ascii。
>通过在flink-conf.yaml文件里添加如下配置解决了该问题:
>env.java.opts.taskmanager: "-Dfile.encoding=UTF-8"
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>在 2020-06-08 21:48:33,"guanyq" <dlgua...@163.com> 写道:
>>kafka 0.11版本
>>首先kafka source topic数据是正常的,kafka客户端消费出来无中文乱码问题
>>1.本地idea debug运行,无中文乱码问题
>>2.服务器Standalone模式运行,无中文乱码问题
>>3.服务器on yarn提交方式,就出现中文乱码问题
>>
>>
>>flink 消费kafka的api用的是这个
>>new FlinkKafkaConsumer<>(topicList, new SimpleStringSchema(), props);
>>
>>
>>根据1,2,3分析问题可能和yarn有关系。请教一下大佬们,还需要怎么调查,才能解决这个问题。

回复