我们也遇到过这个问题,我们当时遇到的问题是YARN NM上的默认charset是ascii。
通过在flink-conf.yaml文件里添加如下配置解决了该问题:
env.java.opts.taskmanager: "-Dfile.encoding=UTF-8"














在 2020-06-08 21:48:33,"guanyq" <dlgua...@163.com> 写道:
>kafka 0.11版本
>首先kafka source topic数据是正常的,kafka客户端消费出来无中文乱码问题
>1.本地idea debug运行,无中文乱码问题
>2.服务器Standalone模式运行,无中文乱码问题
>3.服务器on yarn提交方式,就出现中文乱码问题
>
>
>flink 消费kafka的api用的是这个
>new FlinkKafkaConsumer<>(topicList, new SimpleStringSchema(), props);
>
>
>根据1,2,3分析问题可能和yarn有关系。请教一下大佬们,还需要怎么调查,才能解决这个问题。

回复