里的jaas.conf
>>
>> 3.2)这是spark配置里的jaas-zk.conf
>>
>>
>> 是不是要修改这个文件呢?百度给出的都是java的修正,不知道这个需要如何修改。
>>
>>
>> -------------- 原始邮件 --
>> *发件人:* "user-zh" ;
>> *发送时间:* 2021年1月30日(星期六) 下午3:49
>> *收件人:* "
spark对接kafka写hdfs没有问题,这是spark的jaas.conf
> 3.1)这是spark配置里的jaas.conf
>
> 3.2)这是spark配置里的jaas-zk.conf
>
>
> 是不是要修改这个文件呢?百度给出的都是java的修正,不知道这个需要如何修改。
>
>
> -- 原始邮件 --
> *发件人:* "user-zh" ;
> *发送时间:* 2021年1月30日(星期六) 下午3:49
>
2021年1月30日(星期六) 下午3:08
> *收件人:* "user-zh";
> *主题:* Re:问题求助(Pyflink)
>
> 先看下kafka能否通过命令行消费数据.
>
> 命令行检查确保能消费,再使用Flink.
>
>
>
>
>
>
>
>
>
>
>
>
>
> 在 2021-01-30 14:25:57,"瞿叶奇" <389243...@qq.com> 写道:
>
> 老师,您好,我想通过F
先看下kafka能否通过命令行消费数据.
命令行检查确保能消费,再使用Flink.
在 2021-01-30 14:25:57,"瞿叶奇" <389243...@qq.com> 写道:
老师,您好,我想通过Flink消费kafka写本地csv文件,目前遇到的问题是Flink、Kafka都是kerberos认证的集群,而且我是用的是pyflink,现在程序能执行,不报错,但是不消费数据,csv文件没有结果,但是文件日期修改日期一直在更新。怀疑对接kafka
存在问题,希望老师能够给解决疑惑。
1)Kafka生产数据:
2)pyflink 程序