非常感谢,问题解决了!
在 2020-06-09 08:27:47,"马阳阳" <ma_yang_y...@163.com> 写道: > > > >我们也遇到过这个问题,我们当时遇到的问题是YARN NM上的默认charset是ascii。 >通过在flink-conf.yaml文件里添加如下配置解决了该问题: >env.java.opts.taskmanager: "-Dfile.encoding=UTF-8" > > > > > > > > > > > > > > >在 2020-06-08 21:48:33,"guanyq" <dlgua...@163.com> 写道: >>kafka 0.11版本 >>首先kafka source topic数据是正常的,kafka客户端消费出来无中文乱码问题 >>1.本地idea debug运行,无中文乱码问题 >>2.服务器Standalone模式运行,无中文乱码问题 >>3.服务器on yarn提交方式,就出现中文乱码问题 >> >> >>flink 消费kafka的api用的是这个 >>new FlinkKafkaConsumer<>(topicList, new SimpleStringSchema(), props); >> >> >>根据1,2,3分析问题可能和yarn有关系。请教一下大佬们,还需要怎么调查,才能解决这个问题。